Créateur d'applications d'IA générative sur AWS

Développez et déployez rapidement des applications d'IA générative prêtes pour la production.

Présentation

L'un des principaux défis liés à la création d'applications d'IA générative est la configuration complexe du cloud et la nécessité d'une expertise approfondie en IA. Le créateur d'applications d'IA générative sur AWS simplifie ce processus en vous aidant à développer, tester et déployer des applications d'IA sans connaissances approfondies en matière d'IA. Cette solution accélère le développement de votre IA en incorporant facilement vos données commerciales, en comparant les performances de grands modèles de langage (LLM), en exécutant des tâches en plusieurs étapes via des agents d'IA, en créant rapidement des applications extensibles et en les déployant avec une architecture de niveau entreprise. Le créateur d'applications d'IA générative est livré avec un chatbot d'IA générative et une API prêts à l'emploi qui peuvent être rapidement intégrés à vos processus ou applications métier.

Cette solution inclut des intégrations avec Amazon Bedrock et ses LLM en plus des LLM déployés sur Amazon SageMaker. Elle utilise les outils Amazon Bedrock pour la génération à enrichissement contextuel (RAG) afin d'améliorer les réponses de l'IA, des garde-fous Amazon Bedrock pour mettre en œuvre des mesures de protection et réduire les hallucinations, et des agents Amazon Bedrock pour créer des flux de travail pour des tâches complexes. Vous pouvez également vous connecter à d'autres modèles d'IA à l'aide de LangChain ou AWS Lambda. Commencez par l'assistant simple sans code pour créer des applications d'IA pour la recherche conversationnelle, les chatbots générés par l'IA, la génération de texte et le résumé de texte.

Cas d’utilisation de cette solution AWS
  • Titre
Plus...

Avantages

Expérimentation rapide

Cette solution permet aux utilisateurs d'effectuer des expérimentations rapides en supprimant le travail fastidieux requis pour déployer de multiples instances avec différentes configurations et comparer les résultats et les performances. Testez plusieurs configurations de différents LLM, l'ingénierie de requête, les bases de connaissances d'entreprise, les garde-fous, les agents d'IA et bien d'autres paramètres.

Configurabilité

Grâce à des connecteurs prédéfinis à divers LLM, tels que les modèles disponibles auprès d'Amazon Bedrock, cette solution vous donne la possibilité de déployer le modèle de votre choix, ainsi que les services AWS et les principaux services FM que vous préférez. Vous pouvez également autoriser les agents Amazon Bedrock à effectuer diverses tâches et différents flux de travail.

Prêt pour la production

Développée suivant les principes de conception AWS Well-Architected, cette solution offre une sécurité et une capacité de mise à l'échelle de qualité professionnelle avec une haute disponibilité et une faible latence, ce qui garantit une intégration fluide avec vos applications conformément à des normes de performances élevées.

Architecture modulaire extensible

Étendez les fonctionnalités de cette solution en y intégrant vos projets existants ou en y connectant de façon native d'autres services AWS. Cette application est open source. Par conséquent, vous pouvez utiliser la couche d'orchestration LangChain ou les fonctions Lambda pour vous connecter aux services de votre choix.

Détails techniques

Vous pouvez déployer automatiquement cette architecture à l'aide du guide d'implémentation et du modèle AWS CloudFormation qui l'accompagne et qui déploie trois architectures distinctes :

  1. Cas d'utilisation de l'agent : le cas d'utilisation de l'agent permet aux utilisateurs de confier des tâches à exécuter à l'aide des agents Amazon Bedrock. Vous pouvez sélectionner un modèle, rédiger quelques instructions en langage naturel, et les agents d'IA Amazon Bedrock analyseront, orchestreront et effectueront les tâches en se connectant à vos sources de données ou à d'autres API pour répondre à votre demande.
  2. Cas d'utilisation textuel : le cas d'utilisation textuel permet aux utilisateurs de bénéficier d'une interface en langage naturel avec IA générative. Il est possible d'intégrer ce cas d'utilisation à des applications nouvelles ou existantes, et de le déployer via le tableau de bord de déploiement ou indépendamment via une URL fournie.
  3. Tableau de bord de déploiement : le tableau de bord de déploiement est une interface utilisateur (UI) web qui sert de console de gestion permettant aux utilisateurs administrateurs de visualiser, de gérer et de créer leurs cas d'utilisation. Ce tableau de bord offre également aux clients la possibilité d'expérimenter, d'itérer et de déployer rapidement des applications d'IA générative à l'aide de plusieurs configurations de LLM et de données.
  • Cas d'utilisation d'un agent
  • Cas d'utilisation du texte
  • Tableau de bord de déploiement
Options de déploiement
Prêt à vous lancer ?
Déployer cette solution en la lançant dans votre console AWS
Service AWS
Amazon Bedrock

Le moyen le plus simple de créer et de mettre à l'échelle des applications d'IA générative à l'aide de modèles de fondation.

En savoir plus 
Guide
Guide pour les déploiements d'IA générative à l'aide d'Amazon SageMaker JumpStart

Ce guide décrit comment déployer un modèle d'intelligence artificielle (IA) générative fourni par Amazon SageMaker JumpStart pour créer un point de terminaison SageMaker asynchrone avec la simplicité de l'AWS Cloud Development Kit (AWS CDK).

En savoir plus 
Guide
Guide relatif aux requêtes en langage naturel des bases de données relationnelles sur AWS

Ce guide décrit comment créer une application permettant aux utilisateurs de poser des questions directement à des bases de données relationnelles à l'aide de requêtes en langage naturel (NLQ).

En savoir plus 
Service AWS
L'IA générative pour toutes les entreprises

Améliorez la productivité, créez des expériences différenciées et innovez plus rapidement avec AWS.

En savoir plus 
Étude de cas
Lancement d'un chatbot de haute précision utilisant des solutions d'IA génératives sur AWS avec Megamedia

Cette étude de cas montre comment la société de diffusion Megamedia a créé un chatbot alimenté par l'IA générative pour simplifier l'accès aux informations publiques importantes avec AWS.

Lire l'étude de cas 
Vidéo
Résoudre des problèmes avec les solutions AWS : créateur d'applications d'IA générative sur AWS
Regarder la vidéo 

Cette page vous a-t-elle été utile ?