Publicado en: Apr 21, 2020

A partir de hoy, los clientes de PyTorch pueden usar TorchServe, un nuevo marco de publicación de modelos de PyTorch para implementar modelos entrenados a escala sin tener que escribir código personalizado.

PyTorch es un marco de aprendizaje automático de código abierto que, originalmente, creó Facebook. Se ha popularizado entre investigadores del aprendizaje automático y científicos de datos por su facilidad de uso y su interfaz de estilo “Python”. Sin embargo, la parte más complicada del proceso de aprendizaje automático es, a menudo, la implementación y administración de modelos en producción, ya que requiere que los clientes introduzcan API de predicción y las escalen.  

TorchServe facilita la implementación de modelos de PyTorch a escala en entornos de producción. Es un servidor ligero de baja latencia, por lo que podrá implementar sus modelos y lograr un gran rendimiento. Proporciona controladores predeterminados para las aplicaciones más comunes, como la detección de objetos y la clasificación de texto, por lo que no tendrá que escribir código personalizado para implementar sus modelos. Sus modelos podrán pasar rápidamente de la fase de investigación a la de producción gracias a las potentes características de TorchServe, como la publicación de varios modelos, el control de versiones para las pruebas A/B, métricas para el monitoreo y puntos de enlace RESTful para la integración de aplicaciones. TorchServe admite cualquier entorno de aprendizaje automático, como Amazon SageMaker, Kubernetes, Amazon EKS y Amazon EC2, entre otros.  

AWS colabora con Facebook para desarrollar y mantener TorchServe, que está disponible como parte del proyecto de código abierto de PyTorch. Para empezar, consulte el repositorio de GitHub de TorchServe y la documentación