Passa al contenuto principale

Llama di Meta in Amazon Bedrock

Costruisci il futuro dell'IA con Llama

Presentazione di Llama 3.3

Llama 3.3 è un modello 70B ottimizzato per le istruzioni di solo testo che offre prestazioni migliorate rispetto a Llama 3.1 70B e a Llama 3.2 90B se utilizzato per applicazioni di solo testo. Llama 3.3 70B offre prestazioni simili a Llama 3.1 405B, pur richiedendo solo una frazione delle risorse computazionali.

L’addestramento completo di Llama 3.3 70B si traduce in una solida capacità di comprensione e generazione in diverse attività. Questo modello supporta l’IA conversazionale ad alte prestazioni progettata per la creazione di contenuti, le applicazioni aziendali e la ricerca e offre funzionalità avanzate di comprensione del linguaggio, tra cui sintesi testuale, classificazione, analisi del sentiment e generazione di codice.

Llama 3.2 90B è il modello più avanzato di Meta ed è ideale per applicazioni di livello aziendale. Llama 3.2 è il primo modello Llama a supportare le attività di visione con una nuova architettura del modello che integra le rappresentazioni del codificatore di immagini nel modello linguistico. Questo modello eccelle nella conoscenza generale, nella generazione di testi lunghi, nella traduzione multilingue, nella programmazione, nella matematica e nel ragionamento avanzato. Inoltre, introduce funzionalità di ragionamento sulle immagini, grazie alla quale può vantare una comprensione delle immagini e un ragionamento visivo sofisticati. Questo modello è ideale per i seguenti casi d’uso: creazione di didascalie per immagini, recupero di testo da immagini, verifica visiva, risposta visiva alle domande e ragionamento visivo e risposta visiva alle domande sui documenti.

Llama 3.2 11B è adatto per la creazione di contenuti, l’IA conversazionale, la comprensione del linguaggio e le applicazioni aziendali che richiedono ragionamento visivo. Il modello dimostra ottime prestazioni nella sintesi testuale, nell’analisi del sentiment, nella generazione di codice e nel seguire le istruzioni; inoltre, sa ragionare sulle immagini. Questo modello è ideale per i seguenti casi d’uso: creazione di didascalie per immagini, recupero di testo da immagini, verifica visiva, risposta visiva alle domande e ragionamento visivo e risposta visiva alle domande sui documenti.

Llama 3.2 3B offre un’esperienza di IA più personalizzata con elaborazione sul dispositivo. Llama 3.2 3B è progettato per applicazioni che richiedono inferenze a bassa latenza e risorse computazionali limitate. Eccelle nelle attività di sintesi testuale, classificazione e traduzione linguistica dei testi. Questo modello è ideale per i seguenti casi d’uso: assistenti di scrittura mobili basati sull’IA e applicazioni per il servizio clienti.

Llama 3.2 1B è il modello più leggero della collezione di modelli Llama 3.2 ed è perfetto per il recupero e il riepilogo per dispositivi edge e applicazioni mobili. Consente di disporre di funzionalità di IA sul dispositivo preservando la privacy degli utenti e riducendo al minimo la latenza. Questo modello è ideale per i seguenti casi d’uso: gestione delle informazioni personali e recupero delle conoscenze multilingue.

Vantaggi

LOREM IPSUM

Llama 3.2 offre un’esperienza di IA più personalizzata con elaborazione su dispositivo. I modelli Llama 3.2 sono progettati per essere più efficienti, con latenza ridotta e prestazioni migliorate, rendendoli adatti a un'ampia gamma di applicazioni.

La lunghezza contestuale di 128.000 token consente a Llama di catturare relazioni ancora più complesse nei dati.

I modelli Llama sono addestrati su oltre 15 trilioni di token provenienti da origini dati pubbliche online per comprendere meglio le complessità linguistiche.

Llama 3.2 è multilingue e supporta otto lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese.

L'API gestita di Amazon Bedrock rende l'utilizzo dei modelli Llama più semplice che mai. Le organizzazioni di tutte le dimensioni possono accedere alla potenza di Llama senza preoccuparsi dell'infrastruttura sottostante. Poiché Amazon Bedrock è serverless, non è necessario gestire alcuna infrastruttura, mentre è possibile integrare e implementare in modo sicuro le funzionalità di IA generativa di Llama nelle applicazioni utilizzando i servizi AWS già noti. Ciò significa che è possibile concentrarsi su ciò che si sa fare meglio: creare le proprie applicazioni di IA.

Informazioni su Llama

Negli ultimi dieci anni, Meta si è concentrata sull’obiettivo di offrire strumenti agli sviluppatori e di promuovere la collaborazione e i progressi tra sviluppatori, ricercatori e organizzazioni. I modelli Llama dispongono di un’ampia gamma di dimensioni dei parametri, che consentono agli sviluppatori di scegliere il modello più adatto alle proprie esigenze e al propri budget per l’inferenza. I modelli Llama in Amazon Bedrock aprono prospettive infinite, perché gli sviluppatori non devono preoccuparsi della scalabilità o della gestione dell’infrastruttura. Amazon Bedrock è una soluzione molto semplice e pronta all’uso per gli sviluppatori che desiderano iniziare a utilizzare Llama.

Casi d’uso

I modelli Llama eccellono nella comprensione delle immagini e nel ragionamento visivo, nelle sfumature linguistiche, nella comprensione contestuale e in attività complesse, come l'analisi dei dati visivi, la didascalia delle immagini, la generazione di dialoghi e la traduzione, e possono gestire senza problemi attività in più fasi. Altri casi d’uso perfetti per i modelli Llama includono ragionamenti e comprensione visiva sofisticati, recupero di immagini e testo, verifica visiva, risposta visiva alle domande sui documenti, precisione e sintesi testuale, classificazione del testo, analisi del sentiment e ragionamento complesso, modellazione del linguaggio, sistemi di dialogo, generazione di codice e osservazione delle istruzioni.

Versioni del modello

Llama 3.3 70B

Modello 70B ottimizzato per le istruzioni di solo testo che offre prestazioni migliorate rispetto a Llama 3.1 70B e a Llama 3.2 90B se utilizzato per applicazioni di solo testo. Llama 3.3 70B offre prestazioni simili a Llama 3.1 405B, pur richiedendo solo una frazione delle risorse computazionali.

Numero massimo di token: 128.000

Lingue: inglese, tedesco, francese, italiano, portoghese, spagnolo e tailandese

Supporto per il fine-tuning: no

Casi d’uso supportati: IA conversazionale ad alte prestazioni progettata per la creazione di contenuti, applicazioni aziendali e ricerca, con funzionalità avanzate di comprensione del linguaggio, tra cui sintesi testuale, classificazione, analisi del sentiment e generazione di codice. Il modello supporta anche la capacità di utilizzare i risultati per migliorare altri modelli, tra cui la generazione e la distillazione di dati sintetici

Llama 3.2 90B

Modello multimodale che accetta input e output sia di testo che di immagini. Ideale per applicazioni che richiedono un'intelligenza visiva sofisticata, come analisi delle immagini, elaborazione di documenti, chatbot multimodali e sistemi autonomi.

Numero massimo di token: 128.000

Lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese

Supporto per il fine-tuning: sì

Casi d’uso supportati: comprensione delle immagini, ragionamento visivo e interazione multimodale, che consentono applicazioni avanzate quali generazione di didascalie, ricerca immagine-testo, visual grounding e risposta a domande su immagini e documenti, grazie a una capacità unica di ragionamento e deduzione da input visivi e testuali.

Llama 3.2 11B

Modello multimodale che accetta input e output sia di testo che di immagini. Ideale per applicazioni che richiedono un'intelligenza visiva sofisticata, come analisi delle immagini, elaborazione di documenti e chatbot multimodali.

Numero massimo di token: 128.000

Lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese.

Supporto per il fine-tuning: sì

Casi d’uso supportati: comprensione omprensione delle immagini, ragionamento visivo e interazione multimodale, per la realizzazione di applicazioni avanzate quali generazione di didascalie, recupero immagine-testo, visual grounding e risposta a domande su immagini e documenti

Llama 3.2 3B

Modello leggero di solo testo pensato per fornire risultati estremamente accurati e pertinenti. Progettato per applicazioni che richiedono inferenze a bassa latenza e risorse computazionali limitate. Ideale per riscritture di query e prompt, assistenti di scrittura mobile basati sull'IA e applicazioni di assistenza clienti, in particolare su dispositivi edge, dove la sua efficienza e la bassa latenza consentono una perfetta integrazione in varie applicazioni, tra cui assistenti di scrittura mobile basati sull'IA e chatbot per il servizio clienti.

Numero massimo di token: 128.000

Lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese

Supporto per il fine-tuning: sì

Casi d’uso supportati: generazione avanzata di testo, sintesi, analisi del sentiment, intelligenza emotiva, comprensione contestuale e ragionamento basato sul buon senso

Nomura utilizza i modelli Llama di Meta in Amazon Bedrock per democratizzare l’IA generativa

Aniruddh Singh, Executive Director ed Enterprise Architect presso Nomura, illustra il percorso intrapreso dall'istituto finanziario per democratizzare l'IA generativa in tutta l'azienda utilizzando Amazon Bedrock e i modelli Llama di Meta. Amazon Bedrock fornisce un accesso determinante ai principali modelli di fondazione (FM) come Llama, garantendo una perfetta integrazione. Llama offre a Nomura vantaggi essenziali, tra cui innovazione più rapida, trasparenza, guardrail per i pregiudizi e prestazioni affidabili nella sintesi testuale, nella generazione di codice, nell'analisi dei log e nell'elaborazione dei documenti. 

TaskUs rivoluziona le esperienze dei clienti utilizzando i modelli Llama di Meta in Amazon Bedrock

TaskUs, fornitore leader di servizi digitali esternalizzati e di esperienza del cliente di nuova generazione per le aziende più innovative del mondo, aiuta i propri clienti a rappresentare, proteggere e far crescere i loro marchi. La sua innovativa piattaforma TaskGPT, basata su Amazon Bedrock e sui modelli Llama di Meta, consente ai membri del team di fornire un servizio eccezionale. TaskUs crea strumenti su TaskGPT che utilizzano Amazon Bedrock e Llama per parafrasi, generazione di contenuti, comprensione e gestione di attività complesse a costi contenuti.