TESTIMONIANZA DEL CLIENTE

Come Hugging Face aiuta le aziende ad adottare modelli aperti

a cura del Team editoriale di AWS | 21 feb 2025 | Leadership di pensiero

Panoramica

I modelli di fondazione (FM) open source si sono velocizzati a una velocità vertiginosa nell'ultimo anno e mezzo, raggiungendo rapidamente i loro omologhi a modello chiuso. Adesso, gli ingegneri hanno a portata di mano oltre un milione di modelli gratuiti, molti dei quali offrono prestazioni pari a quelle dei migliori modelli chiusi disponibili. Un tempo dominio di pochi, l'utilizzo di modelli aperti si sta espandendo alle imprese, comprese aziende come Fortune 500.

Questa libreria pubblica di modelli è apprezzata dalla community e offre la possibilità di controllare i costi, utilizzare set di dati trasparenti e accedere a modelli specialistici. Ma mentre chiunque può utilizzare liberamente i modelli open source, le sfide legate alla messa in produzione ne hanno limitato il potenziale. Per un ingegnere esperto di machine learning (ML), il processo richiede almeno una settimana di duro lavoro e implica diverse decisioni complesse relative a unità di elaborazione grafica (GPU), backend e implementazione.

Con l'obiettivo di rendere l'IA disponibile a tutti, Hugging Face, una piattaforma open source leader, sta abbattendo queste barriere. Come afferma Jeff Boudier, Head of Product presso Hugging Face: “Il nostro obiettivo è consentire a tutte le aziende del mondo di creare la propria IA”. Lanciando di recente i servizi Hugging Face Generative AI Services (affettuosamente chiamati HUGS, 'abbracci'), l'azienda sta affrontando il lungo e difficile compito di implementare un modello aperto di produzione completa.

Immagine di Hugging Face

Modelli aperti pronti all'uso

Inizialmente, la grande visione di Hugging Face era quella di “consentire a chiunque di intrattenere una conversazione divertente con un modello di machine learning”, come afferma Boudier. Poteva essere un'ambizione audace nel 2016, ma oggi l'azienda sta concretizzando questa visione rendendo l'implementazione di tecnologie all'avanguardia accessibile sia ai privati che alle imprese.

In precedenza, le aziende creavano proof-of-concept (POC) utilizzando modelli chiusi non perché fosse la loro prima scelta, ma perché era il percorso più rapido e semplice. Lo sviluppo di un'applicazione di IA utilizzando modelli aperti richiede in genere molti tentativi ed errori perché gli ingegneri si occupano di tutto, dalla configurazione alla compilazione. Per soddisfare i requisiti di prestazioni e conformità, hanno la necessità di modificare librerie, versioni e parametri.

Con HUGS, le organizzazioni aggirano i problemi legati allo sviluppo di un'applicazione di IA con modelli aperti. La soluzione plug and play sta cambiando le regole del gioco per coloro che desiderano sfruttare i vantaggi dell'IA generativa. Non è necessaria alcuna configurazione, il che significa che possono semplicemente prendere un modello aperto ed eseguirlo. Ciò che prima richiedeva settimane ora richiede solo pochi minuti, perché i modelli vengono automaticamente ottimizzati per la GPU o l'acceleratore IA.

Alte prestazioni senza tagli al budget

Per tutta la durata del viaggio di Hugging Face verso la democratizzazione dell'IA, la collaborazione con AWS ha contribuito alla sua evoluzione da startup alle prime armi a leader nel settore, con modelli di IA utilizzati da milioni di persone ogni mese. Man mano che questi modelli progrediscono e le aziende ne ricavano sempre più vantaggi, HUGS offre loro l'accesso a una raccolta selezionata e comparata manualmente dei modelli linguistici di grandi dimensioni (LLM) aperti più prestanti e moderni.

La recente collaborazione di Hugging Face con Amazon Web Services (AWS) ha consentito alle aziende di non dover più scendere a compromessi tra costi, prestazioni e velocità di implementazione. Ora che la soluzione è disponibile sui chip di IA di AWS Inferentia2, gli sviluppatori riescono a ottimizzare ulteriormente le prestazioni dei modelli per ottenere una latenza inferiore e un throughput più elevato, il tutto risparmiando fino al 40% sui costi di inferenza. E non è l'unico modo in cui stanno rendendo le applicazioni di IA generativa più accessibili alle aziende di tutte le dimensioni. Lavorando insieme sulla libreria open source Optimum Neuron, le aziende ottengono i vantaggi di HUGS mantenendo i costi generali ai minimi livelli.

Potenziamento dell'impatto commerciale

Dalla creazione di assistenti virtuali alla creazione di contenuti accattivanti in pochi secondi, i modelli di Hugging Face coprono una vasta gamma di casi d'uso. Sebbene offrano buone prestazioni rispetto ai benchmark accademici, Boudier afferma che è possibile ricavare ancora più valore dalla personalizzazione: “Ciò che conta per il tuo caso d'uso è diverso. Con il fine-tuning e l'apprendimento per rinforzo, è possibile migliorare i modelli aperti e renderli molto migliori rispetto ai modelli chiusi”.

Utilizzando AWS Inferentia2 su Amazon SageMaker, è possibile personalizzare i modelli di Hugging Face per migliorarne la qualità per attività specifiche e abilitare carichi di lavoro di produzione su larga scala. Inoltre, la soluzione consente agli sviluppatori di avere un impatto immediato sul miglioramento dei modelli utilizzando una serie di tecniche, tra cui la progettazione dei prompt, la generazione potenziata da recupero dati (RAG) e altro ancora.

Le grandi aziende come Thomson Reuters stanno già scalando i modelli aperti in modo sicuro ed efficace su AWS. Ora, con HUGS e AWS Inferentia2, dispongono dell'hardware ottimizzato per creare applicazioni di IA generativa con sicurezza e rapidità, ottenendo un rendimento più veloce. Disponibile su AWS Marketplace e con una perfetta integrazione dell'infrastruttura AWS, gli sviluppatori possono facilmente trovare, abbonarsi a e implementare modelli aperti alle proprie condizioni.

Hugging Face sta facendo passi da gigante per rendere i modelli aperti fruibili per tutti e al contempo sta ampliando i modelli LLM disponibili tramite HUGS per mantenere aggiornate le applicazioni dei clienti. Offrendo più opzioni open source e semplificando l'utilizzo, le aziende hanno ora la libertà di scegliere tra modelli aperti e chiusi.