Historias de clientes / Software e Internet

2022
Print

Finch Computing reduce los costos de inferencia en un 80 % con AWS Inferentia para la traducción de idiomas

Disminución del 80 %

en costos informáticos

3 idiomas adicionales

admitidos gracias al ahorro de costos

Reducción del plazo de comercialización

para nuevos productos

Optimización

del rendimiento y los tiempos de respuesta para los clientes

Clientes adicionales

captados al usar el servicio

Información general

Finch Computing desarrolla tecnología de procesamiento de lenguaje natural (NLP) para ofrecer a los clientes la posibilidad de descubrir información a partir de enormes volúmenes de datos de texto, y buscaba satisfacer las solicitudes de los clientes de admitir más idiomas. Finch había creado sus propios modelos de traducción neuronal utilizando algoritmos de aprendizaje profundo con un elevado requisito de computación que dependían de las GPU. La empresa buscaba una solución escalable que pudiera ampliarse para admitir fuentes de datos globales y que le permitiera iterar nuevos modelos lingüísticos rápidamente sin tener que asumir costos prohibitivos.

Desde su creación, Finch ha estado utilizando soluciones de Amazon Web Services (AWS). La empresa comenzó a estudiar AWS Inferentia, un acelerador de inferencias de machine learning de alto rendimiento creado específicamente por AWS para acelerar las cargas de trabajo de aprendizaje profundo. Al crear una infraestructura de computación centrada en el uso de AWS Inferentia, Finch redujo sus costos en más de un 80 % en comparación con el uso de GPU, al tiempo que mantuvo el rendimiento y los tiempos de respuesta para sus clientes. Con una potente infraestructura de computación, Finch ha acelerado su tiempo de comercialización, ha ampliado su NLP para admitir tres idiomas adicionales y ha atraído a nuevos clientes.

panel del producto

Oportunidad |En busca de escalabilidad y optimización de costos para modelos de machine learning

Con oficinas en Reston (Virginia) y Dayton (Ohio), Finch, una combinación de las palabras «find» y «search» (encontrar y buscar en inglés), presta servicios a empresas multimedia y agregadores de datos, organizaciones gubernamentales y de inteligencia estadounidenses y empresas de servicios financieros. Sus productos se centran en el NLP, un subconjunto de la inteligencia artificial que entrena a los modelos para que comprendan los matices del lenguaje humano, lo que incluye descifrar el tono y la intención. Su producto Finch for Text utiliza cálculos de machine learning (ML) densos y paralelos que se basan en una computación acelerada y de alto rendimiento para poder ofrecer a los clientes información casi en tiempo real sobre sus activos de información. Por ejemplo, su función de desambiguación de entidades ofrece a los clientes la posibilidad de interpretar el significado correcto de una palabra que tiene varios significados o grafías.

Finch amplió sus capacidades para admitir el holandés, lo que hizo surgir la idea de que necesitaba ampliarse aún más para incluir el francés, el alemán y el español, entre otros idiomas. Esta decisión resultó acertada no solo porque los clientes de Finch tenían mucho contenido en esos idiomas, sino también porque los modelos capaces de admitir idiomas adicionales podían atraer a nuevos clientes. Finch necesitaba encontrar una forma de procesar una cantidad significativa de datos adicionales sin afectar el rendimiento o los tiempos de respuesta, factores críticos para sus clientes, ni aumentar los costos de implementación.

En AWS re:Invent 2021, una conferencia anual organizada por AWS para la comunidad mundial de computación en la nube, los representantes de Finch conocieron las instancias basadas en AWS Inferentia en Amazon Elastic Compute Cloud (Amazon EC2), que ofrecen una capacidad de computación segura y redimensionable para prácticamente cualquier carga de trabajo. AWS presentó a Finch al socio de AWS Slalom, una empresa de consultoría centrada en la estrategia, la tecnología y la transformación empresarial. Durante los dos meses posteriores a AWS re:Invent, los miembros de los equipos de Slalom y Finch trabajaron en la creación de una solución rentable. «Además de recibir orientación del equipo de AWS, contactamos con Slalom, lo que nos ayudó a optimizar nuestras cargas de trabajo y a acelerar este proyecto», afirma Scott Lightner, Founder y Chief Technology Officer de Finch.

kr_quotemark

«Dado el coste de las GPU, nos habría resultado imposible ofrecer a nuestros clientes idiomas adicionales y, al mismo tiempo, mantener la rentabilidad de nuestro producto. Las instancias Inf1 de Amazon EC2 cambiaron esa ecuación para nosotros».

Scott Lightner
CTO y Founder de Finch Computing

Solución | Creación de una solución mediante AWS Inferentia

Juntos, Finch y Slalom crearon una solución que optimizó el uso de las instancias Amazon EC2 Inf1 basadas en AWS Inferentia, que ofrecen inferencias de machine learning de alto rendimiento a un bajo coste en la nube. «Dado el coste de las GPU, nos habría resultado imposible ofrecer a nuestros clientes idiomas adicionales y, al mismo tiempo, mantener la rentabilidad de nuestro producto», afirma Lightner. «Las instancias Inf1 de Amazon EC2 cambiaron esa ecuación para nosotros».

Los modelos de traducción de aprendizaje profundo patentados por la empresa se ejecutaban en PyTorch en AWS, un marco de aprendizaje profundo de código abierto que facilita el desarrollo de modelos de machine learning y su implementación en la producción. Finch usó Docker para incluir en contenedores e implementar sus modelos de PyTorch. Finch migró estos modelos con un uso intensivo de computación de instancias basadas en GPU a instancias de Amazon EC2 Inf1 con tecnología de AWS Inferentia. Las instancias Inf1 de Amazon EC2 se crearon para acelerar un conjunto diverso de modelos, que van desde la visión artificial hasta el NLP. El equipo pudo crear una solución capaz de combinar los tamaños de los modelos y mantener el mismo rendimiento que cuando utilizaba GPU, pero a un costo significativamente menor. «Con AWS Inferentia, podemos obtener el rendimiento necesario a un precio asequible para nuestros clientes», afirma Lightner.

La estrategia implicó la implementación de contenedores Docker en Amazon Elastic Container Service (Amazon ECS), un servicio de orquestación de contenedores totalmente gestionado que facilita a las organizaciones la implementación, la administración y el escalado de las aplicaciones en contenedores. La solución incorporaba las AMI de aprendizaje profundo de AWS (DLAMI), entornos preconfigurados para crear aplicaciones de aprendizaje profundo rápidamente. Finch incorporó las AMI de AWS Inferentia a su cartera de DevOps y actualizó sus plantillas de infraestructura como código para utilizar AWS Inferentia con el objetivo de ejecutar contenedores personalizados mediante Amazon ECS. «Cuando nuestra canalización de DevOps se ejecutó en instancias Inf1 de Amazon EC2 y Amazon ECS, pudimos implementar rápidamente más modelos de aprendizaje profundo», afirmó Franz Weckesser, Chief Architect de Finch. De hecho, Finch creó un modelo compatible con el idioma ucraniano en solo 2 días. En pocos meses, Finch implementó tres modelos de machine learning adicionales, compatibles con el NLP en alemán, francés y español, y mejoró el rendimiento de su modelo holandés existente.

Al utilizar las instancias Inf1 de Amazon EC2, la empresa mejoró la velocidad de desarrollo de estos nuevos productos y, al mismo tiempo, redujo sus costos de inferencia en más de un 80 %. La incorporación de los nuevos modelos atrajo a clientes interesados en obtener información de los idiomas adicionales y recibió comentarios positivos de los clientes existentes. «Siempre hay desafíos a la hora de realizar cambios radicales en la infraestructura», afirma Lightner. «Pero pudimos superarlos rápidamente gracias a la perseverancia de nuestro equipo con la ayuda de Slalom y AWS. El resultado final hizo que valiera la pena».

Resultado | Migración de aplicaciones adicionales a AWS Inferentia

Finch espera seguir migrando más modelos a AWS Inferentia. Estos modelos incluyen Sentiment Assignment (asignación de sentimientos), que identifica un contenido como positivo, negativo o neutral, y una nueva función llamada Relationship Extraction (extracción de relaciones), una aplicación con uso intensivo de computación que descubre las relaciones entre las entidades mencionadas en el texto. Además, Finch continúa añadiendo nuevos idiomas, y tiene planes para el árabe, el chino y el ruso próximamente. «Nuestra experiencia trabajando en AWS Inferentia ha sido excelente», afirma Lightner. «Ha sido fantástico contar con un proveedor de servicios en la nube que colabora con nosotros y nos ayuda a crecer con nuestro negocio».

Acerca de Finch Computing

Finch Computing es una empresa de procesamiento de lenguaje natural que utiliza machine learning para ayudar a los clientes a obtener información casi en tiempo real a partir del texto. Sus clientes incluyen empresas multimedia y agregadores de datos, el gobierno y las agencias de inteligencia de EE. UU., y los servicios financieros.

Servicios de AWS utilizados

Amazon Inferentia

AWS Inferentia es el primer componente personalizado de Amazon diseñado para acelerar las cargas de trabajo de aprendizaje profundo y forma parte de una estrategia a largo plazo para cumplir esta visión.

Más información »

Amazon Elastic Container Service (Amazon ECS)

Amazon ECS es un servicio de orquestación de contenedores administrado por completo que permite implementar, administrar y escalar aplicaciones en contenedores de manera sencilla.

Más información »

Amazon Elastic Compute Cloud (Amazon EC2)

Amazon EC2 ofrece la plataforma de computación más amplia y profunda, con más de 500 instancias y la posibilidad de elegir el procesador, el almacenamiento, la red, el sistema operativo y el modelo de compra más recientes, en función de lo que mejor se ajuste a las necesidades que plantea la carga de trabajo.

Más información »

AMI de aprendizaje profundo de AWS (DLAMI)

Las AMI de aprendizaje profundo de AWS ofrecen a los investigadores y profesionales de machine learning la infraestructura y las herramientas necesarias para agilizar las tareas de aprendizaje profundo en la nube a cualquier escala.

Más información »

Comenzar

Organizaciones de todos los tamaños y de todos los sectores transforman sus negocios y cumplen sus misiones todos los días con AWS. Contacte nuestros expertos y comience hoy mismo su propia jornada en AWS.