Amazon Web Services ブログ

責任ある AI のベストプラクティス: 責任ある信頼できる AI システムの促進

本ブログは 2023 年 9 月 15 日に公開された「Responsible AI Best Practices: Promoting Responsible and Trustworthy AI Systems」を翻訳したものとなります。

生成 AI の出現により、私たちの働き方、生活、世界との関わり方に変革をもたらす可能性と恩恵をもたらす潜在力が生まれました。しかし、このような強力な技術には責任が伴うことを認識することが重要です。

この頃、エグゼクティブの方々とお話しすると、AI を始めることに大きな熱意と興奮があります。生成 AI については特にです。しかし、彼らはよく「どうすれば責任ある安全な方法で、顧客に最高の体験を提供できるでしょうか?」と尋ねます。特に生成 AI に関して新たな課題が生じているのを目にするにつれ、これは重要な質問になります。

本ブログでは、公平性、透明性、アカウンタビリティ、プライバシーを重視した責任ある AI に関するいくつかの考慮事項とベストプラクティスをご紹介します。また、このエキサイティングな新技術を採用しイノベーションに乗り出す際に、エグゼクティブ、取締役、リーダーの方々が責任ある構築のために検討すべきステップについてもお伝えします。

生成 AI の時代における責任ある AI

生成 AI は、その増大する能力と高まるアクセシビリティにより、イノベーション、進歩、そして素晴らしい成果を達成する能力において、エキサイティングな機会を提供しています。しかし、こうした刺激的な機会に恵まれる中、潜在的なバイアスや害をよりよく理解し、対処する責任の増大が求められています。最近、AWS はホワイトハウス、政策立案者、テクノロジー組織、AI コミュニティと共に、自主的な取り組みを通じて AI の責任ある安全な使用を推進することに参加しました。これは、将来の生成 AI モデルを安全かつ責任を持って開発するために協力する必要性を認識したものです。

責任ある AI のベストプラクティスは、AI システムの責任ある、透明性のある、アカウンタビリティのある使用を促進する上で極めて重要です。AI テクノロジーが進化し、私たちの生活に浸透し続けるにつれて、責任ある AI の採用を促進するガイドラインとフレームワークを確立することが不可欠です。これらのベストプラクティスは、AI に関連する潜在的なリスク、バイアス、社会的影響に対処すると同時に、その変革の可能性を活用して個人、組織、社会に利益をもたらす必要があります。

これから説明する 9 つの責任ある AI のベストプラクティスは、技術的側面に留まらず、AI 導入の組織的および文化的側面に焦点を当てています。また組織内で責任ある AI の文化を促進するために、リーダーシップのコミットメント、部門横断的な協力、継続的な教育と啓発プログラムの必要性を強調しています。

人間中心のアプローチを取る

1. 多様で学際的なチームを組成する

必要な方針や戦略を決定するには、AI 専門家、データサイエンティスト、倫理学者、法律の専門家、ドメインエキスパートなど、多様な専門知識を持つチームを編成するのが最適です。チームは、AI 技術、責任ある考慮事項、法的枠組み、および AI が展開される特定のドメインについて、幅広い理解を持つべきです。この学際的なアプローチにより、AI の影響に関する全体的な視点と包括的な理解が確保されます。このチームは、あらゆる組織で責任ある AI 思考を形成し導入する上で重要な役割を果たします。

責任ある AI は単一の組織やグループ専属の管轄ではなく、AI エコシステムに関わるすべてのステークホルダーの積極的な参加と関与を必要とする、協力的な取り組みであることを覚えておくことが重要です。

2. 教育を優先する

責任ある AI の実践に関する教育は、AI 開発者やデータサイエンティストを超えて、従業員、ステークホルダー、そしてより広いコミュニティにまで及ぶ必要があります。教育プログラムは、責任ある AI の考慮事項、潜在的リスク、ベストプラクティス(責任ある AI の方針と手順を含む)についての意識を高めることに焦点を当てるべきです。バイアスの緩和、プライバシー保護、AI システムの説明可能性、AI 技術の責任ある使用に関するトレーニングの提供に特に重点を置く必要があります。

さらに、ガイドライン、ベストプラクティス文書、ケーススタディ、責任ある AI の実装例を含む内部リソースを作成することをお勧めします。これらのリソースを簡単にアクセスできるようにし、責任ある AI の進化する状況を反映するために定期的に更新します。ここには役立つリソースがあります。

3. AI の能力と人間の判断のバランスを取る

生成 AI の技術は、テキスト、画像、動画を含む非常にリアルなコンテンツを作成できます。しかし、AI はもっともらしく見えるが誤りを含む出力を生成することもあります。生成 AI を使用して法的文書を準備した弁護士が、存在しない判例を引用したという報道を見たことがあるかもしれません。このようなハルシネーション (幻覚) は、過度の最適化、データバイアス、文脈理解の限界、不十分または古いトレーニングデータなどの要因により発生する可能性があります。

AI システムはプロセスを合理化し効率を高める比類のない能力を提供しますが、人間の判断を十分に考慮する必要があります。人間は、幅広い知識、因果推論、共感、思いやり、文脈理解など、重要な資質を備えています。これは複雑で高リスクな意思決定シナリオにおいて重要となる可能性があります。AI を含むアプリケーションの責任ある使用と展開を促進するために、AI の能力と人間の判断の適切なバランスを取ることが重要です。

AI システムの決定の重要性と複雑さに基づいて、適切なレベルの人間の関与を検討する必要があります。この関与には、人間がAI システムと共に意思決定プロセスに積極的に関与する「ヒューマン・イン・ザ・ループ」、人間が AI システムの監視とコントロールを行う一方リアルタイムでの意思決定プロセスには積極的に関与しない「ヒューマン・オン・ザ・ループ」、あるいは人間が AI システムに対する最終的な意思決定権限とコントロールを持つ「ヒューマン・オーバー・ザ・ループ」のアプローチが含まれます。

バイアスを緩和し透明性を促進するための新しいメカニズムと手法を特定する

4. バイアスの緩和

生成 AI モデルは膨大な量のデータで訓練されています。基盤モデルや訓練データにバイアスが入り込むと、出力を生成する際に増幅され、永続化される可能性があります。これをそのまま放置すると、不公平、ステレオタイプの永続化、また多様性と表現が制限されることに繋がります。訓練データに偏りがあったり、サンプルのサイズに格差がある場合、または関連する特徴量に多様性が欠けている場合、バイアスが生じる可能性があります。

AI のバイアスの緩和には 2 つのアプローチが必要です。まず、組織は AI モデルの訓練中に多様で代表的なデータを優先的に使用する必要があります。幅広い視点、背景、人口統計を包む代表的なデータセットを取り入れることで、バイアスを緩和するのに役立ちます。次に、AI システムの開発と展開を通じてバイアスを緩和するための手法を実装することが重要です。これには、バイアスを緩和するためのデータの前処理や、公平でキャリブレーションされた AI 出力を促進するための後処理技術の実装が含まれます。

5. 透明性と説明可能性を促進する

生成 AI モデルは複雑で、モデルがどのように出力に至ったかを理解するのは難しい場合があります。生成 AI を使用していることをエンドユーザーいつ開示するか検討する必要があります。同様に、生成 AI モデルがどのように出力に至ったかの説明が必要な場合を考慮することが重要です。

モデルの開発と展開に関連する適切なプロセスを促進するメカニズムに焦点を当てます。これには、モデルのアーキテクチャ、入力データの要約、訓練プロセス、意思決定のメカニズムが含まれる場合があります。決定木やルールベースのシステムなどの解釈可能なアルゴリズムと手法を活用して、モデルがどのように機能するか理解を深めます。これには、特徴量の重要度分析、アテンションメカニズム、またはモデルの出力に最も影響を与える要因を強調する顕著性マップなどの手法が含まれる場合があります。

6. テスト、テスト、テスト

責任ある AI プログラムの有効性を確保するには、継続的なテストと評価が必要です。このテストには、モデル自体と、訓練に使用したデータセットを含むモデルの両方が含まれていることを確認してください。責任ある AI の実践を評価する際は、異なる人口統計グループ間の結果の格差やバイアスを測定するために公平性を評価する指標を検討してください。さらに、調査、フィードバックメカニズム、またはユーザーエクスペリエンスの評価を通じて、AI システムに対するユーザーの満足度と信頼度を測定します。責任ある AI プログラムの改善を推進するために、これらの調査結果を適切に文書化し、ステークホルダーに伝えることを検討してください。

リスクを最小限に抑えプライバシーを保護するために主要なセーフガードとガードレールを導入する

7. プライバシーに関する考慮事項を組み込む

生成 AI はモデルのトレーニングに大規模なデータセットを使用します。リスクを最小限に抑えるため、トレーニング中に匿名化技術を含む個人データの取り扱いに関するベストプラクティスを実施することが重要です。また、データの収集、処理、使用の制限など、適用されるプライバシー法や規制を考慮し、AI ガバナンスフレームワークにプライバシーに関する考慮事項を組み込む必要があります。

8. アプリケーションを特定のユースケースで定義する

生成 AI を広範囲に、あるいは際限のない自由回答形式の質問に答えるための万能ツールとして使用したくなるかもしれません。しかし、AWS のお客様には、特定のビジネスニーズに焦点を当てた価値の高いアプリケーションの特定のユースケースを定義することをお勧めします。アプリケーションのユースケースを特定することにより、アカウンタビリティとオーナーシップがより明確になり、透明性が高まり、リスクの評価と緩和が簡素化されます。また、より的を絞ったテスト、モニタリング、エラー処理も可能になります。

9. 知的財産権を保護し尊重する

生成 AI の台頭により、入力、出力、モデル自体の著作権、AI が生成したコンテンツの所有権、営業秘密の保護など、複雑な知的財産権 (IP) の課題が生じています。コンテンツを独自に作成する生成 AI モデルの自律性により、従来のクリエーターシップとオーナーシップの境界線が曖昧になっています (訳者注: 人間のクリエイターがコンテンツのオーナーであるという従来の対応関係が崩れてきていることを意味しています)。そのため、生成 AI の使用には、入力と出力の適切な使用を促進するための IP の法的な枠組みの慎重な検討が必要です。

AI システムで使用される独自のアルゴリズム、技術、プロセスを営業秘密として保護することは不可欠であり、機微情報への不正アクセスや開示を防ぐための堅固なセキュリティ対策が必要です。さらに、特定のモデルのデータフローを理解し、安全であることを確認し、入力が望まない形で第三者と共有されないようにすることが重要です。

結論

AI を責任を持って構築するための措置を講じることは、責任ある公正な成果を促進しながら AI の可能性を活用するために不可欠です。エグゼクティブは、安全で信頼できる AI を推進しながら、次の 10 年の AI イノベーションへと組織を導く機会があります。透明性、公平性、アカウンタビリティ、プライバシーの原則に従いバイアスに対処することで、信頼を構築し、社会的利益を促進し、AI システムに関連するリスクを緩和しながら、組織は生成 AI の可能性を最大限に活用できます。

Tom Godden

Tom Godden

Tom Godden は Amazon Web Services (AWS) のエンタープライズストラテジストでありエバンジェリストです。AWS に入社する前は、Foundation Medicine の最高情報責任者として、FDA が 規制する世界有数の癌ゲノムの診断、研究、患者転帰プラットフォームの構築を支援し、転帰の改善と次世代の精密医療への情報提供に貢献しました。それ以前は、オランダのアルフェン・アーン・デン・レインにある Wolters Kluwer で複数の上級技術リーダーシップの役割を務め、ヘルスケアおよびライフサイエンス業界で 17 年以上の経験を持っています。Tom はアリゾナ州立大学で学士号を取得しています。

翻訳はプロフェッショナルサービス本部の藤浦 雄大が担当しました。