Publicado: Nov 9, 2023

O Amazon Comprehend anunciou novos recursos que ajudam as organizações a aumentar a confiança e a segurança de conteúdo em texto. O Amazon Comprehend é um serviço de processamento de linguagem natural (PLN) que fornece APIs pré-treinadas e personalizadas para obter insights de conteúdo em texto. Com os novos recursos de detecção de toxicidade e classificação imediata de segurança, os clientes já podem aplicar barreiras de proteção para moderar conteúdo gerado por usuários e máquinas.

Atualmente, as organizações precisam gerenciar o conteúdo gerado por aplicações de IA generativa e usuários online por meio de chats, comentários e discussões em fóruns. Usuários mal-intencionados podem gerar conteúdo ou solicitar que modelos de IA generativa criem conteúdo com linguagem tóxica e dados confidenciais. Para ajudar a garantir a segurança dos usuários, as organizações precisam moderar esse conteúdo com rapidez e inteligência. A partir de hoje, as organizações podem usar os recursos de detecção de toxicidade e classificação imediata de segurança do Comprehend para moderar conteúdo em texto com agilidade, escalabilidade e economia.

A detecção de toxicidade é um recurso baseado em PLN que identifica conteúdo tóxico, classificando textos em sete categorias: assédio sexual, discurso de ódio, ameaça, abuso, palavrões, insultos e explícito. A classificação imediata de segurança sinaliza solicitações inseguras para evitar o uso inadequado de aplicações de IA generativa. Ambas as APIs fornecem pontuações de confiança que podem ser usadas para remover automaticamente conteúdo impróprio usando um limite definido ou para contribuir com fluxos de trabalho de moderação humana.

Ambas as APIs oferecem suporte ao idioma inglês e estão disponíveis nas regiões Leste dos EUA (Norte da Virgínia), Oeste dos EUA (Oregon), Europa (Irlanda) e Ásia-Pacífico (Sydney). Os clientes podem acessar esses recursos usando a AWS CLI e os AWS SDKs. Para começar, acesse a documentação sobre confiança e segurança do Amazon Comprehend.