Guardrail per Amazon Bedrock

Implementa misure di protezione personalizzate in base ai requisiti delle tue applicazioni e alle politiche di IA responsabile

Crea applicazioni di intelligenza artificiale responsabili con Guardrails for Amazon Bedrock

Guarda le demo su come creare e applicare guardrail personalizzati con i modelli di fondazione (FM) per implementare policy di utilizzo responsabile dell'IA all'interno delle tue applicazioni di IA generativa.

Offri un livello costante di sicurezza dell'IA in tutte le tue applicazioni

Guardrails per Amazon Bedrock valuta gli input degli utenti e le risposte FM in base a politiche specifiche dei casi d'uso, fornendo un ulteriore livello di protezione indipendentemente dal FM sottostante. I guardrail possono essere applicati a tutti i modelli linguistici di grandi dimensioni (LLM) su Amazon Bedrock, compresi i modelli ottimizzati. I clienti possono creare più guardrail, ognuno configurato con una diversa combinazione di controlli, e utilizzare questi guardrail in diverse applicazioni e casi d'uso. 

schermata dell'interfaccia utente

Blocca argomenti indesiderati nelle tue applicazioni di IA generativa

Le organizzazioni riconoscono la necessità di gestire le interazioni all'interno delle applicazioni di IA generativa per un'esperienza utente pertinente e sicura. Desiderano personalizzare ulteriormente le interazioni, per rimanere su argomenti pertinenti alla loro attività e allinearsi alle politiche aziendali. Utilizzando una breve descrizione in linguaggio naturale, Guardrails per Amazon Bedrock ti consente di definire una serie di argomenti da evitare nel contesto della tua applicazione. Guardrails rileva e blocca gli input dell'utente e le risposte FM che rientrano negli argomenti riservati. Ad esempio, un assistente bancario può essere progettato per evitare argomenti relativi alla consulenza in materia di investimenti.

guardrail per filtri di contenuti Amazon Bedrock

Filtra i contenuti dannosi in base alle tue politiche di intelligenza artificiale responsabili

Guardrails per Amazon Bedrock fornisce filtri dotati di soglie configurabili per filtrare i contenuti dannosi in varie categorie come odio, insulti, sesso, violenza, comportamenti scorretti (inclusa l'attività criminale) e attacchi tramite prompt (prompt injection e jailbreak). La maggior parte degli FM fornisce già protezioni integrate per prevenire la generazione di risposte dannose. Oltre a queste protezioni, Guardrails consente di configurare le soglie tra le diverse categorie, per filtrare le interazioni dannose. L'aumento della resistenza del filtro intensifica l'aggressività del processo di filtraggio. I guardrail valutano automaticamente sia le richieste degli utenti, sia le risposte FM, per rilevare e aiutare a prevenire i contenuti che rientrano in categorie soggette a restrizioni. Ad esempio, un sito di e-commerce può progettare il proprio assistente online per evitare l'uso di un linguaggio inappropriato come incitamento all'odio o insulti.

guardrail per gli argomenti negati da Amazon Bedrock

Redazione delle informazioni di identificazione personale (PII) per proteggere la privacy

Guardrails per Amazon Bedrock consente di rilevare contenuti sensibili come informazioni di identificazione personale (PII) negli input degli utenti e nelle risposte FM. È possibile selezionare da un elenco di informazioni di identificazione personale (PII) o definire un tipo di informazioni sensibili personalizzato utilizzando espressioni regolari (regex). In base al caso d'uso, è possibile rifiutare selettivamente gli input contenenti PII oppure oscurare le PII nelle risposte FM. Ad esempio, puoi oscurare le informazioni personali degli utenti mentre generi riepiloghi delle trascrizioni delle conversazioni con clienti e agenti in un call center.

pseudonimizzazione e icona gdpr