Témoignages de clients / Internet et logiciels

2024
logo de faraday lab

Faraday Lab déploie en quelques jours des LLM conçus pour être accessibles en français à l’aide d’Amazon SageMaker

La plupart des solutions d’intelligence artificielle (IA) générative étant basées sur de grands modèles de langage (LLM) entraînés à partir de jeux de données en anglais, la start-up Faraday Lab a créé sa propre IA générative entraînée sur des jeux de données en français afin d’améliorer l’accessibilité et la diversité.

Temps

de formation LLM 50 % plus rapide

Vitesse

d’inférence accrue de 30 %

Amélioration

de la précision des réponses en fonction du score de compréhension du langage multitâche

Mise en

conformité RGPD

Création

d’une solution à petit budget

Présentation

Pour adapter ses LLM, Faraday Lab a migré vers Amazon Web Services (AWS). En utilisant AWS et en collaborant avec Data Reply France, un Partenaire AWS, Faraday Lab a réduit le temps de formation LLM, augmenté la vitesse d’inférence et préservé la souveraineté des données pour ses clients.

image faraday lab

Opportunité | Former des LLM en quelques jours sur Amazon SageMaker pour Faraday Lab

La société Faraday Lab, fondée en 2023, vise à améliorer l’accessibilité et la diversité de l’IA générative en formant et en affinant les LLM sur des jeux de données en français afin de donner accès à l’IA à tous, sans limitation géographique. L’architecture sur site d’origine de la start-up n’était pas évolutive. Elle a donc migré vers AWS et a commencé à utiliser Amazon SageMaker, conçu pour créer, former et déployer des modèles de machine learning pour tous les cas d’utilisation.

Faraday Lab a travaillé avec Data Reply France pour apprendre à utiliser l’infrastructure et les outils AWS. Data Reply France a aidé Faraday Lab à peaufiner son processus de mise au point et à nettoyer un jeu de données open source afin de le réduire de 14 millions à 100 000 échantillons, dont 10 000 de langage de haute qualité provenant du Parlement français. À l’aide de ce jeu de données, Faraday Lab a affiné son modèle sur Amazon SageMaker et l’a déployé en 15 jours en utilisant Llama 2 Chat comme modèle de base. L’outil final, Ares Chat, fournit une interface utilisateur sans code permettant aux utilisateurs d’interagir avec Aria LLM et de générer des images à l’aide d’Ares Creative, qui est alimenté par une diffusion stable XL 1.0.

kr_quotemark

J’invite toutes les startups à utiliser Amazon SageMaker pour former leurs LLM. Vous avez le meilleur des deux mondes grâce à une capacité d’inférence et à une capacité de formation rentable. »

William Elong
PDG de Faraday Lab

Solution | Réduire de 50 % le temps de formation LLM et maintenir la conformité au RGPD grâce à AWS

En formant ses LLM à Amazon SageMaker, Faraday Lab a amélioré la précision de ses modèles. Son modèle ARIA 70B version 3 a un énorme score de compréhension du langage multitâche de 64,75. L’entreprise a réduit la durée de sa formation LLM de 50 % (la formation elle-même ne dure que 2 jours) et a augmenté la vitesse d’inférence de 30 %.

Faraday Lab utilise des modèles de Hugging Face, une communauté d’IA générative open source, dont Llama 2 et Falcon. Les propres modèles de Faraday Lab sont déployés sur Hugging Face et, au cours des 6 premiers mois de l’entreprise, 10 000 utilisateurs les ont téléchargés. L’équipe a également créé une extension Chrome dédiée en tant qu’outil de génération d’images pour Ares Creative. La plupart des outils de Faraday Lab sont accessibles, sans compétences en codage, directement depuis le site Web de Faraday.

Faraday Lab répond également aux exigences du règlement général sur la protection des données (RGPD). Ses points de terminaison d’inférence sont hébergés sur des serveurs AWS situés en Europe, de sorte que les demandes de l’utilisateur et les réponses du modèle restent dans l’UE. En formant ses modèles au français, Faraday travaille sur la diversité des données et sur la réduction des biais liés à la langue et à la culture.

Grâce à Amazon SageMaker, Faraday Lab réduit ses coûts. « Avec AWS, nous pouvons disposer d’une solution de niveau industriel avec un petit budget », déclare William Elong, PDG de Faraday Lab. « La rapidité de formation de nos modèles et les faibles dépenses sont des avantages essentiels. Utiliser Amazon SageMaker pour gagner du temps et économiser de l’argent n’a pas de prix. »

Résultat | IA générative innovante et accessible pour l’avenir

Faraday Lab étend sa solution pour fournir une IA générative accessible à un plus grand nombre d’utilisateurs dans le monde entier. Elle prévoit de mettre en œuvre AWS Inferentia, des accélérateurs conçus par AWS pour les applications d’inférence basées sur le deep learning, afin de réduire encore les coûts d’inférence.

« J’invite toutes les startups à utiliser Amazon SageMaker pour former leurs LLM, déclare M. Elong. Vous avez le meilleur des deux mondes grâce à une capacité d’inférence et à une capacité de formation rentable. »

À propos de Faraday Lab

Faraday Lab est une start-up française qui fournit de grands modèles de langage open source à 45 000 utilisateurs dans 30 pays. L’entreprise forme ses modèles d’intelligence artificielle en français et dans d’autres langues européennes afin de rendre sa solution plus inclusive et d’améliorer la qualité des réponses.

Services AWS utilisés

AWS Inferentia

Les accélérateurs AWS Inferentia sont conçus par AWS pour offrir de hautes performances à moindre coût dans Amazon EC2 pour vos applications d’inférence de deep learning (DL) et d’IA générative.

En savoir plus »

Amazon SageMaker

Amazon SageMaker s'appuie sur deux décennies d'expérience d'Amazon en matière de développement d'applications machine learning du monde réel, notamment les recommandations de produits, la personnalisation, les achats intelligents, la robotique et les appareils à assistance vocale.

En savoir plus »

D’autres témoignages de clients du secteur de l’Internet et des logiciels

Showing results: 9-12
Total results: 918

aucun élément trouvé 

  • The Netherlands

    Improvement-IT Uses TechNative to Migrate to AWS, Speeds Customer Onboarding, and Reduces Support Calls by 15%

    Improvement-IT, based in the Netherlands, provides IoT solutions to a variety of organizations with an emphasis on tracking, tracing, and monitoring the status of assets. Together with its other companies Port Pay and Alltrack Medical, it offers these innovative solutions to help customers track assets in the field, manage warehouses, and optimize supply chains. However, it was being hampered by its own managed services provider, which was running both Amazon Web Services (AWS) and on-premises assets for it. It wanted a proactive partner with deep expertise to help optimize its systems, improve client onboarding times, and better detect problems before they affected customers. AWS Partner TechNative has helped it to achieve those goals, reducing customer support calls by 15 percent and cutting onboarding time by 50 percent.

    2025
  • Argentina

    Kovix Improves Route Efficiency by 20% With HERE on AWS

    To optimize high-volume, complex routes for municipal recycling collection in Argentina, Kovix turned to AWS Partner HERE Technologies, a leader in location data and routing solutions. HERE offered enterprise-grade routing capabilities that Kovix deployed to dynamically manage hundreds of waypoints with scalability and precision. Using HERE Tour Planning, Kovix reduced route times by 20 percent and fuel expenses by 17 percent, improving operational performance for municipalities across Argentina.

    2025
  • United States

    AWS Partner Pinecone Helps Hyperleap Build Job Seeker-focused AI-powered Job Board

    Hyperleap, a company specialized in building SaaS solutions for the recruiting industry, worked with AWS Partner Pinecone to create a job board where job seekers could employ generative AI to stand out in the initial resume filter and put their best foot forward. Together, they developed Jennie Johnson, a job-seeker focused AI-powered job board which increased click-through rates by 50% and provided job seekers customized matches.

    2025
  • Palo Alto Networks Boosts 2,000 Developers’ Productivity Using AI Solutions from AWS, Anthropic, and Sourcegraph

    Palo Alto Networks, a leading cybersecurity company, sought to boost developer productivity using generative artificial intelligence (AI) technology. The goal was to create a custom solution that would enhance the speed and quality of coding while maintaining strict security standards. By leveraging Amazon Web Services (AWS), Claude 3.5 Sonnet and Claude 3 Haiku from AWS Partner Anthropic, and Cody from AWS Partner Sourcegraph, Palo Alto Networks developed a secure AI tool for generating, optimizing, and troubleshooting code. Within three months, Palo Alto Networks onboarded 2,000 developers and increased productivity up to 40 percent, with an average of 25 percent. This custom AI solution has empowered both senior and junior developers, and the company expects further improvements in code quality and efficiency.

    2024
1 230

Démarrer

Les organisations de toutes tailles et de tous secteurs transforment leur activité et exécutent leurs missions au quotidien à l'aide d'AWS. Contactez nos experts et démarrez votre transition vers AWS dès aujourd'hui.