Publicado en: Apr 18, 2024
A partir de hoy, la próxima generación de los modelos Llama de Meta, Llama 3, ya está disponible a través de Amazon SageMaker JumpStart, un centro de machine learning (ML) que ofrece modelos preentrenados, algoritmos integrados y soluciones prediseñadas que lo ayudan a comenzar rápidamente con el ML. Puede implementar y usar los modelos básicos Llama 3 con unos pocos clics en SageMaker Studio o mediante programación a través del SDK de Python en SageMaker.
Llama 3 viene en una variedad de tamaños de parámetros (8B y 70B) y se puede usar para admitir una amplia gama de casos de uso, con mejoras en el razonamiento, la generación de código y el seguimiento de instrucciones. Llama 3 utiliza una arquitectura de transformadores solo para decodificadores y un nuevo tokenizador que proporciona un rendimiento mejorado del modelo. Además, los procedimientos mejorados de Meta después de la capacitación redujeron sustancialmente las tasas de rechazo falso, mejoraron la alineación y aumentaron la diversidad en las respuestas de los modelos. Ahora puede obtener las ventajas combinadas del rendimiento de Llama 3 y los controles MLOps con las características de Amazon SageMaker, como canalizaciones de SageMaker, el depurador de SageMaker o los registros de contenedores. El modelo se implementará en un entorno seguro de AWS bajo los controles de su VPC, lo que ayudará a garantizar la seguridad de los datos.
Los modelos básicos de Llama 3 ya están disponibles en SageMaker JumpStart inicialmente en las siguientes regiones de AWS: Este EE. UU. (Ohio), Oeste de EE. UU. (Oregón), Este de EE. UU. (Virginia del Norte), Asia Pacífico (Tokio) y Europa (Irlanda). Para empezar a usar los modelos básicos de Llama 3 a través de SageMaker JumpStart, consulte la documentación y el blog.