Publié le: Sep 21, 2021

Amazon Comprehend a lancé une suite de fonctions pour Comprehend Custom afin de permettre des améliorations continues de modèle en donnant aux développeurs la possibilité de créer de nouvelles versions de modèle, de tester en continu sur des jeux de tests spécifiques et de migrer de nouveaux modèles vers des points de terminaison existants. À l'aide d'AutoML, la reconnaissance d'entités personnalisées vous permet de personnaliser Amazon Comprehend pour identifier les entités spécifiques à votre domaine. La classification personnalisée vous permet de créer facilement des modèles de classification de texte personnalisés à l'aide de labels spécifiques à votre entreprise. Des modèles personnalisés peuvent ensuite être utilisés pour effectuer des inférences sur des documents texte, que ce soit en mode de traitement en temps réel ou par lots. La création d'un modèle personnalisé est simple, aucune expérience de machine learning n'est requise. Vous trouverez ci-dessous une description détaillée de ces fonctions :

Gestion améliorée des modèles - Pour la plupart des projets de traitement du langage naturel (NLP), les modèles sont entraînés à nouveau, et continuellement, au fur et à mesure que de nouvelles données sont collectées, ou s'il existe un écart entre le jeu de données d'entraînement et les documents traités par inférence. Avec la gestion des versions de modèle et les mises à jour des points de terminaison en direct, vous pouvez entraîner à nouveau, et continuellement, de nouvelles versions de modèle, comparer les métriques de précision entre les versions et mettre à jour les points de terminaison en direct avec le modèle le plus performant en un seul clic.

  • La gestion des versions de modèle vous permet d'entraîner à nouveau les versions plus récentes d'un modèle existant, ce qui facilite l'itération et le suivi des changements de précision. Chaque nouvelle version peut être identifiée avec un ID de version unique.
  • La mise à jour de point de terminaison actif permet la mise à jour d'un point de terminaison synchrone actif avec un nouveau modèle. Cela garantit que vous pouvez déployer une nouvelle version de modèle en production sans aucun temps d'arrêt.

Contrôle amélioré pour l'entraînement/l'évaluation de modèle - La préparation de données et l'évaluation de modèles sont souvent la partie la plus fastidieuse de tout projet de traitement du langage naturel. Sans indication claire de la répartition des données d'entraînement et de test, l'évaluation de modèle et le dépannage peuvent souvent prêter à confusion. Pendant l'entraînement du modèle, vous pouvez désormais fournir des jeux de données d'entraînement et de test distincts. Nous avons également lancé un nouveau mode d'entraînement qui améliore la précision des inférences sur les documents longs en couvrant plusieurs paragraphes.

  • Le jeu de données de test fourni par le client vous permet de fournir un jeu de données de test facultatif pendant l'entraînement du modèle. Auparavant, vous deviez exécuter manuellement une tâche d'inférence sur un jeu de test afin d'évaluer un modèle. À mesure que des données supplémentaires sont collectées et que de nouvelles versions de modèle sont entraînées, l'évaluation des performances du modèle à l'aide du même jeu de données de test peut permettre une comparaison équitable entre les versions de modèle.
  • Le nouveau mode d'entraînement améliore la précision du modèle de reconnaissance d'entité pour les documents longs, car il contient plusieurs paragraphes. Lors de l'entraînement du modèle à l'aide d'annotations CSV, le choix du format d'entrée ONE_DOC_PER_FILE pour les documents longs permet au modèle d'assimiler davantage d'intégrations contextuelles, améliorant ainsi considérablement la précision du modèle.

Pour en savoir plus et commencer à utiliser ces fonctions, consultez la page produit Amazon Comprehend ou notre documentation.