Publié le: Jul 26, 2023
Aujourd'hui, nous avons le plaisir d'annoncer Amazon Transcribe Toxicity Detection, une fonctionnalité de détection vocale de toxicité basée sur le ML, qui exploite des signaux audio et textuels pour identifier et classer les contenus toxiques. Amazon Transcribe est un service de reconnaissance vocale automatique (ASR) qui vous permet d'ajouter facilement des fonctionnalités de synthèse vocale à vos applications. Outre le texte, Transcribe Toxicity Detection utilise des indices vocaux, tels que le ton et la hauteur, pour cibler l'intention toxique du discours. Les contenus toxiques sont signalés et classés dans sept catégories, notamment le harcèlement sexuel, les discours de haine, les menaces, les abus, les blasphèmes, les insultes et les graphiques. Cela permet aux modérateurs de prendre des mesures ciblées plutôt que de passer en revue l'intégralité des conversations.
La détection de la toxicité est utilisée dans tous les secteurs et principalement dans le domaine des jeux en ligne et des réseaux sociaux. Par exemple, les jeux en ligne utilisent la détection de toxicité pour surveiller les conversations orales entre joueurs, en particulier lorsqu'un incident est signalé. En général, les modérateurs humains examinent de longs enregistrements pour identifier le contenu toxique et prendre des mesures. Désormais, grâce à Amazon Transcribe Toxicity Detection, les modérateurs humains voient exactement où le contenu toxique a été prononcé dans la conversation et la langue utilisée est classée selon des scores de toxicité. Cela réduit le temps passé à écouter du contenu de 95 %, ce qui permet aux modérateurs de couvrir une plus grande partie du son et d'agir plus rapidement lorsqu'une toxicité est détectée.
Amazon Transcribe Toxicity Detection est désormais disponible en anglais américain avec traitement par lots. Cette fonctionnalité est prise en charge dans les régions AWS suivantes : USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Oregon), Asie-Pacifique (Sydney), Europe (Irlande) et Europe (Londres). Vous devrez payer des frais supplémentaires, comme décrit dans la section relative aux tarifs de détection de toxicité. Pour en savoir plus, consultez l'article « Signaler un langage dangereux dans les conversations orales grâce à la détection de toxicité par Amazon Transcribe » et la documentation Amazon Transcribe.