Ограничения для Amazon Bedrock
Внедрите средства защиты, адаптированные к требованиям ваших приложений и политикам ответственного подхода к искусственному интеллектуСоздавайте приложения с ответственным использованием искусственного интеллекта с помощью Ограничений для Amazon Bedrock
Ограничения для Amazon Bedrock позволяют дополнить встроенные средства защиты настраиваемыми мерами безопасности, что обеспечивает высочайший для этой отрасли уровень защиты и дает следующие преимущества:
- блокировка вредоносного контента расширяется на 85 %;
- отбрасывается более 75 % ответов с галлюцинациями для рабочих нагрузок RAG и резюмирования;
- клиенты получают возможность настраивать и применять меры для защиты безопасности, конфиденциальности и правдивости в рамках единого решения.
Обеспечьте единый уровень безопасности ИИ во всех приложениях.
Ограничения для Amazon Bedrock позволяют оценивать вводимую пользователем информацию и ответы базовой модели на основе политик для конкретных сценариев использования и обеспечивают дополнительный уровень безопасности независимо от используемой базовой модели. Ограничения для Amazon Bedrock – это единственная функция ответственного использования ИИ, предлагаемая крупным поставщиком облачных услуг, которая позволяет клиентам создавать и настраивать механизмы для защиты безопасности, конфиденциальности и достоверности своих приложений на основе генеративного искусственного интеллекта в рамках единого решения. Этот сервис поддерживает все большие языковые модели (LLM) из Amazon Bedrock, а также любые модели с дополнительной настройкой. Клиенты могут создать несколько ограничений, каждое из которых использует уникальную комбинацию элементов управления, и использовать эти ограничения в разных приложениях и сценариях использования. Ограничения также можно интегрировать с агентами Amazon Bedrock и базами знаний Amazon Bedrock, чтобы создавать приложения на основе генеративного искусственного интеллекта с соблюдением политик ответственного использования ИИ. Кроме того, сервис ограничений для Amazon Bedrock предлагает API ApplyGuardrail для оценки вводимых пользователем данных и моделирования ответов, генерируемых любой специализированной или сторонней базовой моделью за пределами Bedrock.
Блокируйте нежелательные темы в приложениях с генеративным искусственным интеллектом
Организации признают необходимость управления взаимодействиями в приложениях с генеративным ИИ для создания релевантной и безопасной среды работы пользователей. Они хотят еще больше адаптировать взаимодействие, чтобы оно оставалось в рамках актуальных для их бизнеса тем и соответствовало политике компании. Используя краткое описание на естественном языке, Ограничения для Amazon Bedrock позволяют определить набор тем, которых следует избегать в контексте приложения. Amazon Bedrock Guardrails позволяет обнаруживать и блокировать вводимую пользователем информацию и ответы базовой модели из запрещенных категорий. Например, помощник в банковской системе можно разработать таким образом, чтобы он избегал тем, связанных с инвестициями.
Фильтруйте нежелательный контент в соответствии с ответственным подходом к искусственному интеллекту
Ограничения для Amazon Bedrock предоставляют фильтры контента с настраиваемыми пороговыми значениями для фильтрации вредоносного контента по категориям «ненависть», «оскорбления», «секс», «насилие», «неправомерное поведение» (включая преступную деятельность) и защищает от атак через подсказки (внедрение и взлом). В большинстве базовых моделей уже предусмотрены встроенные средства защиты, предотвращающие появление нежелательных ответов. В дополнение к этим средствам защиты Ограничения для Amazon Bedrock позволяют настраивать пороговые значения по разным категориям контента, чтобы отфильтровать нежелательные взаимодействия. Увеличение уровня фильтрации повышает агрессивность применения фильтра. Этот сервис автоматически оценивает как вводимые пользователем данные, так и ответы модели, чтобы выявить и предотвратить появление контента, относящегося к запрещенным категориям. Например, сайт электронной коммерции может разработать своего онлайн-помощника таким образом, чтобы он не использовал неприемлемые выражения, такие как язык ненависти или оскорбления.
Редактирование конфиденциальной информации (PII) для защиты частной жизни
Ограничения для Amazon Bedrock способны обнаруживать конфиденциальную информацию, например позволяющую установить личность (PII), в пользовательских сообщениях и ответах базовой модели. Можно выбрать из списка предопределенных PII или определить пользовательский тип конфиденциальной информации с помощью регулярных выражений (RegEx). В зависимости от варианта использования вы можете выборочно отклонять входные данные, содержащие чувствительную информацию, или редактировать их в ответах базовой модели. Например, вы можете редактировать личную информацию пользователей в процессе создания сводок по расшифровкам разговоров клиентов и операторов в колл-центре.
Блокируйте неприемлемый контент с помощью настраиваемого фильтра слов
С помощью сервиса ограничений для Amazon Bedrock можно создать набор специальных слов или фраз, которые вы хотите обнаруживать и блокировать при взаимодействии между пользователями и приложениями генеративного искусственного интеллекта. Кроме того, это позволит выявлять и блокировать ненормативную лексику, а также специальные слова, например оскорбления или названия конкурентов.
Выявляйте галлюцинации в ответах модели с помощью контекстных проверок обоснования
Организациям необходимо развертывать правдивые и надежные приложения генеративного искусственного интеллекта, чтобы сохранить и повысить доверие пользователей. Однако приложения на основе базовых моделей могут генерировать неверную информацию из-за галлюцинаций. Например, базовые модели могут генерировать ответы, искажающие информацию из источников, объединять несколько фрагментов информации или изобретать новую информацию. Ограничения для Amazon Bedrock позволяют применить контекстные проверки обоснования для выявления и фильтрации галлюцинаций, то есть необоснованных ответов (которые содержат, например, фактические неточности или информацию неизвестного происхождения), а также ответов, которые не соответствуют запросу или инструкции пользователя. Контекстные проверки обоснования можно использовать для выявления галлюцинаций в приложениях RAG, для резюмирования и поддержания разговора, если есть возможность использовать исходную информацию в качестве справочной для проверки ответа модели.
Дальнейшие шаги
Нашли то, что искали сегодня?
Сообщите нам, как мы могли бы улучшить качество контента на наших страницах.