Ограничения для Amazon Bedrock

Внедрите средства защиты, адаптированные к требованиям ваших приложений и политикам ответственного подхода к искусственному интеллекту

Ответственно создавайте приложения искусственного интеллекта с помощью ограничений для Amazon Bedrock

Ограничения для Amazon Bedrock позволяют дополнить встроенные средства защиты настраиваемыми мерами безопасности, что обеспечивает высочайший для этой отрасли уровень защиты и дает следующие преимущества:

  • блокировка вредоносного контента расширяется на 85 %;
  • отбрасывается более 75 % ответов с галлюцинациями для рабочих нагрузок RAG и резюмирования;
  • клиенты получают возможность настраивать и применять меры для защиты безопасности, конфиденциальности и правдивости в рамках единого решения.

Обеспечьте единый уровень безопасности ИИ во всех приложениях.

Сервис ограничений для Amazon Bedrock оценивает вводимую пользователем информацию и ответы базовой модели на основе политик для конкретных сценариев использования и обеспечивает дополнительный уровень безопасности независимо от используемой FM. Ограничения для Amazon Bedrock – это единственная функция ответственного искусственного интеллекта от крупного поставщика облачных услуг, которая позволяет клиентам создавать и настраивать механизмы для защиты безопасности, конфиденциальности и достоверности своих приложений на основе генеративного искусственного интеллекта в рамках единого решения. Этот сервис поддерживает все большие языковые модели (LLM) из Amazon Bedrock, а также любые модели с дополнительной настройкой. Клиенты могут создать несколько ограничений, каждое из которых использует уникальную комбинацию элементов управления, и использовать эти ограничения в разных приложениях и сценариях использования. Ограничения также можно интегрировать с агентами и базами знаний для Amazon Bedrock, чтобы создавать приложения с генеративным искусственным интеллектом в соответствии с ответственным подходом к ИИ. Кроме того, этот сервис предлагает API ApplyGuardrail для оценки вводимых пользователем данных и моделирования ответов, генерируемых любой специализированной или сторонней базовой моделью, не входящей в состав Bedrock.

Снимок экрана пользовательского интерфейса

Блокируйте нежелательные темы в приложениях с генеративным искусственным интеллектом

Организации признают необходимость управления взаимодействиями в приложениях с генеративным ИИ для создания релевантной и безопасной среды работы пользователей. Они хотят еще больше адаптировать взаимодействие, чтобы оно оставалось в рамках актуальных для их бизнеса тем и соответствовало политике компании. Используя краткое описание на естественном языке, сервис ограничений для Amazon Bedrock позволяет определить набор тем, которых следует избегать в контексте приложения. Он обнаруживает и блокирует вводимую пользователем информацию и ответы базовой модели из запрещенных категорий. Например, помощник в банковской системе можно разработать таким образом, чтобы он избегал тем, связанных с инвестициями.

ограничения для фильтров контента amazon bedrock

Фильтруйте нежелательный контент в соответствии с ответственным подходом к искусственному интеллекту

Сервис «Ограничения для Amazon Bedrock» предоставляет фильтры контента с настраиваемыми пороговыми значениями для фильтрации вредоносного контента по категориям «ненависть», «оскорбления», «секс», «насилие», «неправомерное поведение» (включая преступную деятельность) и защищает от атак через подсказки (внедрение и взлом). В большинстве базовых моделей уже предусмотрены встроенные средства защиты, предотвращающие появление нежелательных ответов. В дополнение к этим средствам защиты сервис ограничений позволяет настраивать пороговые значения для различных категорий контента, чтобы отфильтровать нежелательные взаимодействия. Увеличение уровня фильтрации повышает агрессивность применения фильтра. Сервис ограничений автоматически оценивает как вводимые пользователем данные, так и ответы модели, чтобы выявить и предотвратить появление контента, относящегося к запрещенным категориям. Например, сайт электронной коммерции может разработать своего онлайн-помощника таким образом, чтобы он не использовал неприемлемые выражения, такие как язык ненависти или оскорбления.

ограничения для amazon bedrock, запрещенные темы

Редактирование конфиденциальной информации (PII) для защиты частной жизни

Сервис «Ограничения для Amazon Bedrock» способен обнаружить конфиденциальную информацию, такую как персональные данные (PII), в пользовательских сообщениях и FM-ответах. Можно выбрать из списка предопределенных PII или определить пользовательский тип конфиденциальной информации с помощью регулярных выражений (RegEx). В зависимости от варианта использования вы можете выборочно отклонять входные данные, содержащие чувствительную информацию, или редактировать их в ответах базовой модели. Например, вы можете редактировать личную информацию пользователей в процессе создания сводок по расшифровкам разговоров клиентов и операторов в колл-центре.

псевдонимизация и значок gdpr

Блокируйте неприемлемый контент с помощью настраиваемого фильтра слов

С помощью сервиса «Ограничения для Amazon Bedrock» можно создать набор специальных слов или фраз, которые вы хотите обнаруживать и блокировать при взаимодействии между пользователями и приложениями генеративного искусственного интеллекта. Кроме того, это позволит выявлять и блокировать ненормативную лексику, а также специальные слова, например оскорбления или названия конкурентов.

снимок экрана с фильтром контента

Выявляйте галлюцинации в ответах модели с помощью контекстных проверок обоснования

Организациям необходимо развертывать правдивые и надежные приложения генеративного искусственного интеллекта, чтобы сохранить и повысить доверие пользователей. Однако приложения на основе базовых моделей могут генерировать неверную информацию из-за галлюцинаций. Например, базовые модели могут генерировать ответы, искажающие информацию из источников, объединять несколько фрагментов информации или изобретать новую информацию. Ограничения для Amazon Bedrock позволяют применить контекстные проверки обоснования для выявления и фильтрации галлюцинаций, то есть необоснованных ответов (которые содержат, например, фактические неточности или информацию неизвестного происхождения ) или ответов, которые не соответствуют запросу или инструкции пользователя. Контекстные проверки обоснования можно использовать для выявления галлюцинаций в приложениях RAG, для резюмирования и поддержания разговора, если есть возможность использовать исходную информацию в качестве справочной для проверки ответа модели.

Выявляйте галлюцинации в ответах модели с помощью контекстных проверок обоснования