I modelli di IA generativa Llama 3.1 di Meta sono ora disponibili in Amazon SageMaker JumpStart

Inserito il: 23 lug 2024

Gli attuali modelli Llama di Meta più avanzati, Llama 3.1, sono ora disponibili in Amazon SageMaker JumpStart, un hub di machine learning (ML) che offre modelli pre-addestrati e algoritmi integrati per fornire un aiuto per iniziare rapidamente a usare il ML. È possibile implementare e utilizzare i modelli Llama 3.1 con pochi clic in SageMaker Studio o a livello di programmazione tramite SageMaker Python SDK.

I modelli Llama 3.1 offrono significativi miglioramenti rispetto alle versioni precedenti grazie all'aumento dei dati di addestramento e della scalabilità. I modelli supportano una lunghezza di contesto di 128K, ovvero un aumento di 120K token rispetto a Llama 3. I modelli Llama 3.1 offrono una capacità 16 volte superiore rispetto ai modelli Llama 3 e un ragionamento migliorato per i casi d'uso di dialogo multilingue in otto lingue. I modelli possono accedere a più informazioni dall'immissione di testi più lunghi e così prendere decisioni più informate e sfruttare dati contestuali più ricchi per generare risposte più accurate. Secondo Meta, Llama 3.1 405B è uno dei più grandi modelli di fondazione disponibili al pubblico ed è adatto per la generazione di dati sintetici e la distillazione di modelli, entrambi in grado di migliorare i modelli Llama più piccoli. Per utilizzare i dati sintetici al fine di ottimizzare i modelli, è necessario rispettare la licenza di Meta. Per ulteriori informazioni, leggi l'accordo di licenza con l'utente finale. Tutti i modelli Llama 3.1 offrono funzionalità all'avanguardia in materia di conoscenza generale, matematica, uso degli strumenti e traduzione multilingue.

Attualmente i modelli Llama 3.1 sono disponibili in SageMaker JumpStart nelle regioni AWS di Stati Uniti orientali (Ohio), Stati Uniti occidentali (Oregon) e Stati Uniti orientali (Virginia settentrionale). Per iniziare a usare i modelli Llama 3.1 in SageMaker JumpStart, consulta la documentazione e il blog.