Barreras de protección para Amazon Bedrock

Implemente medidas de seguridad personalizadas según los requisitos de su aplicación y las políticas de IA responsables

Cree aplicaciones de IA responsables con barreras de protección para Amazon Bedrock

Las barreras de protección para Amazon Bedrock ofrecen protecciones adicionales personalizables, además de las protecciones nativas de los modelos fundacionales, y protecciones de seguridad que se encuentran entre las mejores de la industria. Las protecciones incluyen lo siguiente:

  • Bloqueo de hasta un 85 % más de contenido dañino
  • Filtrado de más del 75 % de las respuestas con alucinaciones en cargas de trabajo de resumen y RAG
  • Habilitación para que los clientes personalicen y apliquen protecciones de seguridad, privacidad y veracidad en una única solución

Ofrezca un nivel uniforme de seguridad de IA en todas sus aplicaciones

Las barreras de protección para Amazon Bedrock evalúan las entradas de los usuarios y las respuestas del FM en función de políticas específicas para cada caso de uso y proporcionan una capa adicional de protección independientemente del FM subyacente. Las barreras de protección para Amazon Bedrock son la única capacidad de IA responsable ofrecida por un proveedor de nube importante. Habilita a los clientes a crear y personalizar protecciones de seguridad, privacidad y veracidad para las aplicaciones de IA generativa en una única solución. Son compatibles con todos los modelos de lenguaje de gran tamaño (LLM) en Amazon Bedrock, así como con modelos personalizados. Los clientes pueden crear varias barreras de protección, configurar cada una con distintas combinaciones de controles y utilizarlas en distintas aplicaciones y casos de uso. Las barreras de protección también se pueden integrar con los agentes y las bases de conocimiento para Amazon Bedrock para crear aplicaciones de IA generativa alineadas con sus políticas de IA responsables. Además, las barreras de protección ofrecen la API ApplyGuardrail, la cual evalúa las entradas de los usuarios y modela las respuestas que genera cualquier modelo fundacional personalizado o externo por fuera de Bedrock.

Captura de pantalla de la UI

Bloquee temas no deseados en sus aplicaciones de IA generativa

Las organizaciones reconocen la necesidad de gestionar las interacciones dentro de las aplicaciones de IA generativas para ofrecer una experiencia de usuario relevante y segura. Quieren personalizar aún más las interacciones para centrarse en temas relevantes para su negocio y alinearse con las políticas de la empresa. Con una breve descripción en lenguaje natural, la barrera de protección de Amazon Bedrock le permite definir un conjunto de temas que debe evitar en el contexto de su aplicación. La barrera de protección detecta y bloquea las entradas de los usuarios y las respuestas del FM que entran en los temas restringidos. Por ejemplo, se puede diseñar un asistente bancario para evitar temas relacionados con el asesoramiento de inversiones.

para filtros de contenido de Amazon Bedrock

Filtre el contenido dañino en función de sus barreras de protección responsables de las políticas de IA

Las barreras de protección para Amazon Bedrock ofrecen filtros de contenido con umbrales configurables para filtrar el contenido dañino en categorías como odio, insultos, contenido sexual, violencia y mala conducta (incluida la actividad criminal), y protegen contra ataques de peticiones (como la inyección de peticiones y el jailbreak). La mayoría de los modelos fundacionales (FM) ya proporcionan protecciones integradas para evitar la generación de respuestas dañinas. Además de estas protecciones, las barreras de protección permiten configurar umbrales en las diferentes categorías de contenido para filtrar las interacciones dañinas. El aumento de la potencia del filtro aumenta la agresividad del filtrado. Las barreras de protección evalúan automáticamente tanto las entradas de los usuarios como las respuestas del modelo para detectar y prevenir el contenido de las categorías restringidas. Por ejemplo, un sitio de comercio electrónico puede diseñar su asistente en línea para evitar el uso de lenguaje inapropiado, como la incitación al odio o los insultos.

Barreras de protección para los temas negados de Amazon Bedrock

Elimine la información confidencial (PII) para proteger la privacidad

Las barreras de protección para Amazon Bedrock le permiten detectar contenido confidencial, como la información de identificación personal (PII) en las entradas de los usuarios y en las respuestas del FM. Puede seleccionar de una lista de PII predefinidas o definir un tipo de información confidencial personalizado mediante expresiones regulares (RegEx). Según el caso de uso, puede rechazar de forma selectiva las entradas que contienen información sensible o redactarla en las respuestas del FM. Por ejemplo, puede redactar la información personal de los usuarios mientras genera resúmenes a partir de las transcripciones de las conversaciones entre clientes y agentes en un centro de llamadas.

Seudonimización e ícono del RGPD

Bloquee el contenido inapropiado con un filtro de palabras personalizado

Las barreras de protección para Amazon Bedrock le permiten configurar un conjunto de palabras o frases personalizadas que desea detectar y bloquear en la interacción entre los usuarios y las aplicaciones de IA generativa. Esto también le permitirá detectar y bloquear blasfemias, así como palabras personalizadas específicas, como nombres de competidores u otras palabras ofensivas.

captura de pantalla del filtro de contenido

Detección de alucinaciones en respuestas del modelo con verificaciones contextuales

Para mantener y aumentar la confianza de sus usuarios, las organizaciones deben desplegar aplicaciones de IA generativa que sean veraces y confiables. Sin embargo, las aplicaciones creadas con modelos fundacionales pueden generar información incorrecta debido a las alucinaciones. Por ejemplo, los modelos fundacionales pueden generar respuestas que se desvíen de la información original, combinar varios datos o inventar información nueva. Las barreras de protección para Amazon Bedrock son compatibles con las verificaciones contextuales, lo cual les permite detectar y filtrar las alucinaciones en caso de que las respuestas no estén fundamentadas (por ejemplo, información imprecisa o nueva) en la información de origen y que sean irrelevantes para la consulta o la instrucción del usuario. Las verificaciones contextuales pueden detectar alucinaciones para las aplicaciones de RAG, de resumen y conversacionales, en las cuales la información original se puede utilizar como una referencia para validar la respuesta del modelo.

Detección de alucinaciones en respuestas del modelo con verificaciones contextuales