- Продукты›
- Искусственный интеллект›
- Ответственный подход к искусственному интеллекту
Перейдите от теоретических знаний об ответственном искусственном интеллекте к его практическому использованию
Содействие безопасному и ответственному развитию искусственного интеллекта для благих целей
Ответственное создание искусственного интеллекта в AWS
Стремительное развитие генеративного искусственного интеллекта открывает новые перспективные инновации, но в то же время ставит новые задачи. Компания AWS стремится к ответственному развитию искусственного интеллекта, применяя подход, ориентированный на людей, который ставит во главу угла образование, науку и наших клиентов. Мы интегрируем ответственное использование ИИ на протяжении всего его жизненного цикла.
Основные аспекты ответственного использования ИИ
Справедливость
Рассмотрение последствий для различных затрагиваемых групп
Возможность объяснения
Понимание и оценка результатов работы системы
Конфиденциальность и защита
Надлежащее получение, использование и защита данных и моделей
Безопасность
Предотвращение вредоносных результатов работы и неправильного использования системы
Контроль
Наличие механизмов мониторинга и управления поведением систем ИИ
Достоверность и надежность
Обеспечение правильных результатов работы системы даже при неожиданных или противоречивых вводных данных
Управление
Внедрение передовых практик в цепочку поставок ИИ, включая поставщиков и разработчиков
Прозрачность
Предоставление затрагиваемым сторонам возможности принимать обоснованные решения о своем взаимодействии с системой ИИ
Сервисы и инструменты
AWS предлагает сервисы и инструменты, которые помогут вам ответственно проектировать, разрабатывать и использовать системы искусственного интеллекта.
Внедрение средств защиты в генеративный искусственный интеллект
Amazon Bedrock Guardrails помогает внедрить меры безопасности, адаптированные к вашим генерирующим приложениям искусственного интеллекта и соответствующие вашим ответственным политикам в области искусственного интеллекта. Ограничения позволяют дополнить встроенные средства защиты настраиваемыми мерами безопасности, что обеспечивает высочайший для этой отрасли уровень защиты и дает следующие преимущества:
- блокировка вредоносного контента расширяется на 85 %;
- отбрасывается более 75 % ответов с галлюцинациями для рабочих нагрузок RAG и резюмирования;
- клиенты получают возможность настраивать и применять меры для защиты безопасности, конфиденциальности и правдивости в рамках единого решения.
Оценка базовых моделей (FM)
Оценка моделей на Amazon Bedrock помогает оценить, сравнить и выбрать наиболее подходящие базовые модели для конкретного сценария использования на основе настраиваемых метрик, таких как точность, надежность и токсичность. Для оценки модели также можно использовать Amazon SageMaker Clarify и fmeval.
Выявление предвзятости и объяснение прогнозов
Предвзятость представляет собой несбалансированность данных или различия в производительности модели для различных групп.. Amazon SageMaker Clarify помогает снизить предвзятость, выявляя потенциальные искажения во время подготовки данных, после обучения модели и в развернутой модели путем изучения определенных атрибутов.
Понимание поведения модели важно для разработки более точных моделей и принятия более эффективных решений. Amazon SageMaker Clarify дает более полное представление о поведении модели, что позволяет обеспечить прозрачность для заинтересованных сторон, информировать людей, принимающих решения, и отслеживать, работает ли модель так, как предполагалось.
Мониторинг и проверка человеком
Мониторинг необходим для обеспечения работы высококачественных моделей машинного обучения (ML) и создания точных прогнозов. Монитор модели Amazon SageMaker автоматически обнаруживает неточные прогнозы, созданные на основе развернутых моделей, и предупреждает вас о них. С помощью Amazon SageMaker Ground Truth вы можете использовать отзывы людей на протяжении всего жизненного цикла машинного обучения для повышения точности и релевантности моделей.
Улучшение управления
Управление машинным обучением от Amazon SageMaker предоставляет специализированные инструменты для улучшения управления проектами машинного обучения за счет более строгого контроля и прозрачности моделей машинного обучения. Вы без труда можете собирать информацию о модели и делиться ею, а также получать информацию о поведении модели, например о предвзятости, и все это в одном месте.
Карточки сервисного обслуживания AI на AWS
Карточки сервисов ИИ – это ресурс, предназначенный для повышения прозрачности, предоставляющий вам единое место для поиска информации о предполагаемых сценариях использования и ограничениях, выборе ответственных решений в области дизайна ИИ, а также лучших практиках оптимизации производительности для наших ИИ-сервисов и моделей.
Вклад сообщества и сотрудничество
Благодаря тесному взаимодействию с многосторонними организациями, такими как рабочие группы ОЭСР по искусственному интеллекту, Партнерство по искусственному интеллекту и Институт ответственного искусственного интеллекта, а также стратегическое партнерство с университетами в глобальном масштабе, мы стремимся работать вместе с другими над ответственным развитием технологий искусственного интеллекта и машинного обучения и укреплением доверия.
Мы применяем ориентированный на людей подход к обучению нового поколения лидеров в области искусственного интеллекта с помощью таких программ, как стипендиальная программа AI & ML и программа We Power Tech, чтобы расширить доступ к практическому обучению, стипендиям и наставничеству для недостаточно обслуживаемых или недостаточно представленных в сфере технологий.
Наши инвестиции в безопасный, прозрачный и ответственный генерирующий искусственный интеллект включают сотрудничество с мировым сообществом и политиками, включая Кодекс поведения G7 в Хиросимском процессе по искусственному интеллекту, саммит по безопасности искусственного интеллекта в Великобритании и поддержку ISO 42001, нового основополагающего стандарта для развития ответственного искусственного интеллекта. Мы поддерживаем разработку эффективных нормативно-правовых механизмов регулирования ИИ, основанных на оценке рисков, которые защищают гражданские права и способствуют дальнейшему развитию инноваций.
Ответственное использование ИИ является активной областью исследований и разработок Amazon. Мы сотрудничаем с академическими учреждениями, такими как Калифорнийский технологический институт, и с экспертами программы Amazon Scholars, включая ведущих экспертов, которые применяют результаты своих научных исследований для формирования направлений работы по ответственному использованию ИИ в Amazon.
Мы разрабатываем инновации бок о бок с нашими клиентами, следуя новейшим тенденциям и исследованиям, для создания ценности посредством финансирования научной деятельности в рамках программы Amazon Research Awards и публикации научных работ в рамках Amazon Science. Узнайте больше о научных принципах ответственного создания генеративного искусственного интеллекта в этом блоге Amazon Science, в котором рассказывается об основных новых проблемах и решениях.