Amazon Web Services ブログ
AI/ML CoE (Center of Excellence) の設立
本記事は、2024年5月9日に公開された Establishing an AI/ML center of excellence を翻訳したものです。
人工知能と機械学習(AI/ML)の急速な進歩は、業界を問わず変革の原動力となっています。マッキンゼーの調査によりますと、ファイナンスサービス業界(FSI)全体で、生成AIは4,000億ドル(業界売上高の5%)以上の生産性向上をもたらすと予測されています。ガートナーによりますと、2026年までに80%以上の企業がAI を導入する見込みです。Amazon では、イノベーションがカスタマーエクスペリエンスの向上とプロセスの効率化をもたらし、生産性を向上させると考えています。生成AI は事業変革の契機となるため、FSI の企業にとって、お客さまに最大の価値をもたらす生成AI の可能性を特定することが不可欠です。
業界を問わず企業は、生成AI の組織全体への導入における無数の課題、具体的には明確なビジネスケースの欠如、PoC を超えた拡大の難しさ、ガバナンスの欠如、適切な人材の確保などに直面しています。このような幅広い問題に対処する効果的なアプローチとして見受けられるものが、AI/ML CoE (Center of Excellence) の設立です。AI/ML CoE は、組織内のすべてのAI/ML の取り組みを調整・統括し、事業戦略と価値提供の橋渡しをおこなう集権型もしくは連合型の専門的なユニットです。ハーバード・ビジネス・レビューの調査によりますと、AI/ML CoE は米国の大企業の37% で既に設立されています。企業が生成AI の導入を成功させるためには、事業部門や技術部門を超えた連携が重要性を増しています。
本記事は、AI/ML のためのクラウド導入フレームワークや Well-Architected Machine Learning Lens と併せて、生成AI の可能性を捉えるために効果的なAI/ML CoE を導入するガイドとなります。CoE のミッションの定義、リーダーシップチームの組成、倫理ガイドラインの統合、ユースケースの認定と優先付け、チームのスキルアップ、ガバナンスの導入、インフラストラクチャの構築、セキュリティの組み込み、オペレーショエクセレンスの実現などが含まれます。
AI/ML CoE とは何か?
AI/ML CoE は、事業戦略や製品戦略に沿ったAI/ML のユースケースを特定し、異なる事業部門で共通する再利用可能なパターンを認識し、組織全体のAI/ML のビジョンを導入し、コンピューティングハードウェアとソフトウェアを最適に組み合わせたAI/ML のプラットフォームとワークロードを導入していくことについて、事業部門やエンドユーザーと連携していく役割を担います。CoE チームは、事業の専門知識と AI/ML の高度な技術力を組み合わせ、組織全体で相互運用性と拡張性のあるソリューションを開発・導入します。設計、開発、プロセス、ガバナンスの運用を網羅するベストプラクティスを確立し、実施することで、リスクを軽減し、事業、技術、ガバナンスのフレームワークが一貫して維持されるようにします。利用、標準化、拡張、価値提供のために、AI/ML CoE の成果は、公開ガイダンス、ベストプラクティス、教訓、チュートリアルといったガイダンスと、人材のスキル、ツール、技術ソリューション、再利用可能なテンプレートといった能力構築に大別されます。
AI/ML CoE を設立する利点は次のとおりです。
- 明確な道筋による市場投入までの時間の短縮
- 生成AI でのビジネスアウトカムによる投資対効果の最大化
- リスク管理の最適化
- チームのスキルアップの体系化
- 標準化されたワークフローやツールによる持続可能な拡張
- イノベーションの取り組みの支援と優先付けの強化
効果的な AI/ML CoE を確立するための主要な構成要素を次の図に示します。
番号の付いた各構成要素について以下の章で詳しく説明します。
1. スポンサーシップとミッション
AI/ML CoE を設立する基本的なステップは、経営層からのスポンサーシップを確保し、リーダーシップを確立し、ミッションと目的を定義し、リーダーシップを方向付けることです。
スポンサーシップの確立
意思決定プロセス、説明責任、倫理的・法的基準の遵守を確実にするために、リーダーシップの役割や体制を確立します。
- エグゼクティブスポンサーシップ – AI/ML の取り組みを支持する経営層からの支援を確保します。
- ステアリングコミッティ – AI/ML CoE の活動と戦略的な方向性を統括するために、主要なステークホルダーからなるコミッティを結成します。
- 倫理委員会 – AI/ML の開発と導入において、倫理的かつ責任あるAI の考慮事項に取り組む委員会を設置します。
ミッションの定義
ミッションを、顧客や製品に焦点を当て、組織の全体的な戦略目標と整合させることで、AI/ML CoE の役割を明確にできます。ミッションは、一般的にはエグゼクティブスポンサーが事業部門の責任者と連携して設定し、すべての CoE 活動の指針となるもので、以下の内容を含みます。
- ミッションステートメント – AI/ML の技術を活用した顧客経験向上や製品差別化により事業便益を拡大するというCoE の目的を明確に示します。
- 戦略目標 – 組織全体の戦略目標に沿った、具体的かつ測定可能なAI/ML の目標を示します。
- バリュープロポジション – 期待される事業上の価値について、コスト削減、収益向上、ユーザー満足度向上、時間短縮、市場投入の時間削減など、KPI (Key Performance Indicators) を定量化します。
2. 人材
ガートナーのレポートによりますと、生成AI に関する自身の技術力について、事業、機能、技術の各部門の 53% が「中級」と評価し、経営陣の 64% が「初級」と評価しています。事業のニーズに合わせてカスタマイズされたソリューションを開発することで、継続的な成長と学習の文化を育み、生成AI のスキルを開発しながら、AI とML の技術に関する理解を深められます。
トレーニングと活用支援
AI/ML CoE は、従業員にAI/ML の概念、ツール、技術を教育するために、トレーニングプログラム、ワークショップ、認定プログラム、ハッカソンを開発します。これらは、習熟度に合わせてカスタマイズ可能で、従業員がAI/ML を活用して課題を解決する方法を理解できるよう設計されます。加えて、CoE は、AI/ML のスキル向上を希望する従業員へのメンタリングの場を提供したり、一定の熟達度を認定するプログラムを開発したり、最新の技術や方法をアップデートできる継続的なトレーニングを実施します。
ドリームチーム
バランスのとれたAI/ML のソリューションを実現するには、部門横断的な取り組みが不可欠です。業界、事業、技術、コンプライアンス、オペレーションの専門知識を組み合わせたAI/ML CoE を設置することで、イノベーションを推進します。企業の戦略目標の達成に、AI の多面的な可能性を活用します。AI/ML の専門知識を持った多様性あるチームには、次のような役割が含まれます。
- プロダクトストラテジスト – すべての製品、機能、実験が、変革の戦略に合致していることを確認します。
- AI リサーチャー – イノベーションを推進し、生成AI などの最先端技術を探求するために、この分野の専門家を採用します。
- データサイエンティストと ML エンジニア – データの前処理、モデルのトレーニング、検証の機能を開発します。
- ドメインエキスパート – 特定のアプリケーションやビジネスニーズを理解している事業部門の専門家と共同します。
- オペレーション – KPI の策定、価値提供の実証、MLOps のパイプラインの管理をします。
- プロジェクトマネージャー – プロジェクトを効率的に実施するプロジェクトマネージャーを任命します。
ナレッジシェアリング
CoE、社内のステークホルダー、事業部門のチーム、外部のステークホルダーとのコラボレーションを促進することで、知識の共有や分野横断的なチームワークを実現します。AI/ML の取り組みによるインパクトを最大化するために、ナレッジシェアリングを促進し、ナレッジのリポジトリを構築し、部門横断的なプロジェクトを促進します。ナレッジシェアリングを促進する主な活動例は次のとおりです。
- 部門を超えたコラボレーション – 生成AI の専門家と事業部門の専門家とのチームワークを促進し、部門を超えたユースケースを生み出します。
- 戦略的パートナーシップ – 生成AI を専門とする研究機関、大学、業界のリーダーとのパートナーシップを検討し、それらの専門知識や見識を活用します。
3. ガバナンス
リスク、コンプライアンス、セキュリティを適切に管理しつつ、AI/ML の取り組みで価値提供を拡大できるようガバナンスを確立する必要があります。さらに、AI の開発と拡大に伴うリスクとコストの変化にも注意を払う必要があります。
責任あるAI
公平性、説明可能性、プライバシーとセキュリティ、堅牢性、ガバナンス、透明性などの観点を取り入れることで、生成AI に関連する潜在的な倫理的ジレンマに対処できます。倫理的完全性を確保するため、AI/ML CoE はステークホルダーと協力し、AI/ML のライフサイクル全体にわたり、しっかりしたガイドラインとセーフガードを統合します。CoE は、積極的なアプローチをとることにより、倫理的なコンプライアンスを実現するだけでなく、信頼性を高め、説明責任を強化し、信憑性、有害性、データの悪用、知的財産に関する懸念などの潜在的なリスクを軽減します。
標準とベストプラクティス
CoE は、卓越性への歩みを続け、共通の基準、業界を主導するプラクティス、ガイドラインの定義を支援します。データガバナンス、モデルの開発、倫理的な取り組み、継続的な監視を含む包括的なアプローチが含まれ、責任ある倫理的なAI/ML の実践のための組織のコミットメントを強化します。標準の例には以下が含まれます。
- 開発フレームワーク − AI の開発、導入、ガバナンスの標準フレームワークを確立することで、プロジェクト間で一貫性が保たれ、ベストプラクティスの採用と共有が容易になります。
- リポジトリ – コードやモデルのリポジトリを一元化することで、コーディング規約のベストプラクティスや業界標準のソリューションの共有を容易にします。それにより、チームは一貫したコーディング規約に基づいて、共同性、再利用性、保守性を向上することができます。
- 一元化されたナレッジハブ – データセットや研究成果を格納する一元的なリポジトリで、包括的なナレッジセンターとして機能します。
- プラットフォーム – Amazon SageMaker のような、クリエーション、トレーニング、デプロイの中心的なプラットフォームで、主要なポリシーや標準を管理、拡張します。
- ベンチマークとメトリクス – AI のモデルのパフォーマンスや事業価値を測定したり比較するための標準化されたメトリクスやベンチマークを定義します。
データガバナンス
データガバナンスはAI/ML CoE の重要な機能で、データが責任ある信頼できる方法で収集、使用、共有されることを確認します。AI アプリケーションでは多くの場合で大量のデータを使用するため、データガバナンスは不可欠です。データの品質と完全性が、AI を活用した意思決定の正確性と公平性において重要となります。AI/ML CoE は、データの前処理、モデルの開発、トレーニング、検証、およびデプロイに関するベストプラクティスとガイドラインを定義することを支援します。CoE は、データが正確、完全、最新であること、データが不正なアクセス、使用、開示から保護されていること、データガバナンスポリシーが規制や内部コンプライアンスを遵守していることを確認する必要があります。
モデルの監視
モデルのガバナンスは、企業がポリシーを導入し、モデルへのアクセスを制御し、アクティビティを追跡する方法を決定するフレームワークです。CoE は、モデルが安全で信頼でき、倫理的な方法で開発およびデプロイされていることを確認できるようにします。モデルのガバナンスポリシーは、組織の透明性に対するコミットメントや、顧客、パートナー、規制当局との信頼構築を示します。また、Guardrails for Amazon Bedrock などのサービスを使用し、お客さまのアプリケーションの要件に合わせてカスタマイズされたセーフガードを提供し、責任あるAIのポリシーが実装されていることを確認できるようにします。
価値提供
AI/ML の取り組みの投資対効果、プラットフォームとサービスの費用、リソースの効率的かつ効果的な使用、継続的な最適化を管理します。そのためには、ユースケースに関連するKPI と、データの保存、モデルのトレーニング、推論に関連する支出を監視・分析する必要があります。さまざまな AI のモデルやアルゴリズムのパフォーマンスを評価し、費用対効果が高い、リソース最適化されたソリューションを特定することも含まれます。たとえば、推論には AWS Inferentia を、トレーニングには AWS Trainium を使用します。KPI とメトリクスの設定は、効果を評価する上で極めて重要です。KPI の例は次のとおりです。
- 投資対効果 (ROI) – 投資に対する財務的なリターンを評価することで、AI のプロジェクトへのリソース配分の正当性を示すことができます。
- ビジネスインパクト – 収益の増加やカスタマーエクスペリエンスの向上などの具体的な事業上の成果を測定することで、AI の価値が検証されます。
- プロジェクトの実施時間 – プロジェクトの開始から完了までの時間を追跡することで、業務の効率性や迅速性を示すことができます。
4. プラットフォーム
AI/ML CoE は、事業部門や技術部門と連携し、エンタープライズグレードの拡張性を備えたAI プラットフォームの構築を支援します。それにより、事業部門全体でAI に対応したサービスや製品の運用が可能になります。また、カスタムのAI ソリューションの開発や、実務者がAI/ML 開発の変化に対応できるようにすることも支援します。
データおよびエンジニアリングアーキテクチャー
AI/ML CoE は、技術部門と連携して、AI ソリューションの導入や拡張を加速する適切なデータフローやエンジニアリングインフラストラクチャーを整備します。
- ハイパフォーマンスコンピューティングリソース – 複雑なモデルのトレーニングには、最新のNVIDIA H100 Tensor コア GPU を搭載した Amazon Elastic Compute Cloud (Amazon EC2) インスタンスなどの強力な GPU が不可欠です。
- データストレージと管理 – AWS Glue や Amazon OpenSearch Service などの堅牢なデータの保存、処理、管理のシステムを導入します。
- プラットフォーム – クラウドプラットフォームを使用することで、SageMaker のように、AI/ML プロジェクトに柔軟性と拡張性がもたらされます。それにより、生成AI の実験、データの準備、モデルのトレーニング、デプロイ、監視にわたるエンドツーエンドのML 機能を提供できます。実験から本番稼働までの生成AI のワークロードを加速します。Amazon Bedrock は、基盤モデル(FM)による生成AI アプリケーションの構築と拡張を容易にするフルマネージドサービスで、AI21 Labs、Anthropic、Cohere、Meta、Stability AI、Amazon などの主要なAI 企業の高性能なFM を選択できます。
- 開発ツールとフレームワーク – Amazon CodeWhisperer、Apache MXNet、PyTorch、TensorFlow などの業界標準の AI/ML のフレームワークやツールを使用します。
- バージョン管理およびコラボレーションツール – Git リポジトリ、プロジェクト管理ツール、およびコラボレーションプラットフォームは、AWS CodePipeline や Amazon CodeGuru のように、チームワークを促進します。
- 生成 AI フレームワーク – Amazon Bedrock で利用できる最先端の基盤モデル、ツール、エージェント、ナレッジベース、ガードレールを活用します。
- 実験プラットフォーム – Amazon SageMaker JumpStart のような、再現性やコラボレーションを実現する実験やモデル開発のためのプラットフォームを導入します。
- 文書化 – 実務者とチーム間の知識共有を促進するために、プラットフォーム内のプロセス、ワークフロー、ベストプラクティスの文書化を重視します。
ライフサイクルマネジメント
AI/ML CoE で拡張性、可用性、信頼性、パフォーマンス、回復力を重視することは、AI/MLの取り組みを成功させたり適応させていくために重要となります。MLOps などのライフサイクル管理システムの導入でデプロイや監視を自動化でき、信頼性、市場投入までの時間、オブザーバビリティが向上します。ワークフロー管理には Amazon SageMaker Pipelines、実験の管理には Amazon SageMaker Experiments、コンテナオーケストレーションには Amazon Elastic Kubernetes Service (Amazon EKS) などのツールを使用することで、AI/ML アプリケーションの柔軟な導入と管理が可能になり、さまざまな環境にわたる拡張性と移植性が促進されます。同様に、AWS Lambda などのサーバーレスアーキテクチャを採用することで、需要に応じた自動スケーリングが可能になり、リソースの割り当てに柔軟性を持たせながら運用の複雑さを軽減できます。
AI サービスでの戦略的提携
ソリューションを購入するか開発するかのトレードオフを検討する必要があります。購入は、既製のツールを使用することでスピードと利便性を得られますが、カスタマイズ性に欠けます。一方で、開発は、カスタマイズされたソリューションが得られますが、時間とリソースが必要になります。プロジェクトの規模、期間、長期的な必要性に基づき、組織の目標と技術的な要件との整合を目指す必要があります。理想的には、解決すべき具体的な課題、組織の能力、事業成長の対象領域を徹底評価し、意思決定を行います。例えば、独自性を築けるものであるならば差別化のために開発し、コモディティ化された標準的なビジネスプロセスに基づくものであるならば購入して効率化します。
CoE は、AWS Generative AI Competency Partners などのサードパーティAI サービスプロバイダーと提携し、その専門性と経験を活用することで、AI ベースのソリューションの導入と拡大を加速できます。このようなパートナーシップを通じ、CoE は最新のAI/ML の動向を把握し、最先端のAI/ML ツールやテクノロジーにアクセスできます。さらに、サードパーティのAI サービスプロバイダーは、新しいAI/ML のユースケースの特定や、効果的なAI/ML のソリューションの導入のガイダンスを提供できます。
5. セキュリティ
組織のデータ、AI/ML、生成AI のワークロードの全体に渡って、セキュリティとプライバシーの管理を徹底します。AI/ML のあらゆる側面で、脆弱性と脅威を特定・分類・是正・緩和するセキュリティ対策を統合します。
全体的な警戒
生成AI のソリューションの利用方法に基づいて、セキュリティ対策の範囲を設定し、ワークロードの弾力性を設計し、関連するセキュリティコントロールを適用します。暗号化技術、多要素認証、脅威検出、定期的なセキュリティ監査など、不正アクセスや侵害から確実にデータとシステムを保護する対策が含まれます。新たな脅威に対処するため、定期的な脆弱性評価と脅威モデリングが重要です。モデルの暗号化、セキュアな環境の使用、異常の継続的な監視など、敵対的な攻撃や悪用からの保護策も重要です。Amazon GuardDuty のようなツールで、脅威検出のためにモデルの監視ができます。Amazon Bedrock では、生成AI のアプリケーションの基礎モデルのカスタマイズに利用するデータを完全に制御可能です。転送中も保存中もデータは暗号化され、ユーザーの入力やモデルの出力は、モデルプロバイダーと共有されることはありません。
エンド・ツー・エンドでの安全
AI システムの3大構成要素(入力、モデル、出力)のセキュリティ確保は極めて重要です。ライフサイクル全体で、明確な役割、セキュリティポリシー、標準、ガイドラインを設けることで、システムの完全性と機密性を維持できます。NIST、OWASP-LLM、OWASP-ML、MITRE Atlas などの業界のベストプラクティスの対策や業界のフレームワークの実装が含まれます。さらに、カナダの個人情報保護および電子文書法(PIPEDA)や欧州連合の一般データ保護規則(GDPR)などの要件を評価し、導入します。Amazon Macie などのツールで、機密データを検出・保護できます。
インフラストラクチャー(データとシステム)
機密性の高いデータを扱うため、アクセスやプライバシーを保護する技術の検討と導入が不可欠です。最小権限でのアクセス、データリネージ、ユースケース関連データのみの保持、プライバシー侵害なくコラボレーションできる機密データの分類など、そうした技術が含まれます。これらをAI/ML 開発のライフサイクルのワークフローに組み込み、安全なデータとモデリング環境を維持し、プライバシー規制を遵守し、機密情報を保護する必要があります。AI/ML CoE の戦略にセキュリティ重視の対策を組み込むことで、データ侵害、不正アクセス、敵対的攻撃に伴うリスクを軽減し、AI の資産と機密情報の完全性、機密性、可用性を確保できます。
6. オペレーション
AI/ML CoE は、組織内での生成AI 導入における効率性と成長機会の最大化に注力する必要があります。この章では、ワークロードのパフォーマンスを維持しつつ、統合を成功させるためのいくつかの重要な側面について説明します。
パフォーマンス管理
効果を測るため、KPI やメトリクスの設定が極めて重要です。これらを定期的に評価することで、進捗状況を追跡し、傾向を特定し、CoE 内に継続的改善の文化を醸成できます。これらの洞察を報告することで、組織の目標との整合性が保たれ、AI/ML の取り組みの強化に向けた意思決定プロセスが明確になります。Amazon Bedrock とAmazon CloudWatch の統合などのソリューションは、メトリクスの追跡・管理と、監査用のカスタマイズされたダッシュボードの構築に役立ちます。
KPI の例としては、モデルの精度があります。ベンチマークに照らしてモデルを評価することで、AI が生成するアウトプットの信頼性を高めることができます。
インシデント管理
AI/ML のソリューションでは、異常なアクティビティを管理するため、継続的な制御と監視が必要です。それには、AI/ML のプラットフォーム全体で、理想的には自動化されたプロセスとシステムの確立が必要です。選定した監視ソリューションに合わせ、標準化されたインシデント対応の戦略を策定・実施する必要があります。正式な役割分担、監視対象のデータソースやメトリクス、監視システム、緩和やエスカレーション、根本原因分析などの対応措置などが含まれます。
継続的改善
生成AI のモデルの開発・テスト・導入のためのしっかりとしたプロセスを定義します。堅牢なプロセスを定義・改良することで、生成AI のモデルの開発を効率化します。AI/ML のプラットフォームの定期的なパフォーマンス評価と、生成AI の機能の強化を行います。これには、ステークホルダーやエンドユーザーからのフィードバックの反映、生成AI の先行研究やイノベーションへの資源投入が含まれます。こうした取り組みで、継続的な改善を促し、CoE はAI のイノベーションの最前線を維持できます。さらに、アジャイル手法の導入、包括的な文書の管理、定期的なベンチマークの実施、業界のベストプラクティスの採用により、生成AIの取り組みをシームレスに実施します。
7. ビジネス
AI/ML CoE は、事業部門全体の優先的な課題や機会を継続的に特定することで、事業変革を推進します。CoE は、事業課題や機会にAI/ML の機能を対応させ、価値あるソリューションの迅速な開発と導入を促進します。実際の事業ニーズへの対応を通じて、新製品、新収益源、生産性向上、業務最適化、顧客満足度向上など、段階的な価値創造を実現します。
AI 戦略策定
事業成果の実現を目指して、AI/ML や生成AI の技術導入によりどのように事業を変革できるかについて、複数年の説得力あるビジョンと戦略を確立します。3~5年といった戦略計画期間中に、AI/ML から得られる収益、コスト削減、顧客満足度向上、生産性向上、その他の重要業績指標における具体的な価値を定量化します。さらに、CoE は、AI/ML の導入による競争力強化と主要なプロセスやサービスの段階的改善を説明し、各事業部門の経営幹部からの賛同を得る必要があります。
ユースケース管理
CoE は、最も有望なAI/ML のユースケースを特定、適格化、優先付けするために、全事業部門と継続的な対話を行い、最優先課題と機会を明らかにします。複雑な事業課題や機会は、CoE が事業部門のリーダーと連携して、AI/ML を活用したソリューションに適したものであるか明確化する必要があります。取り組みの成功指標を事業KPI と結び付け、期待される価値と懸念される導入の複雑さの関係を示します。事業価値と実現可能性に基づいて機会を評価し、有望なAI/ML のユースケースを優先付けてパイプラインをつくります。
PoC
本格的な開発に先立ち、高付加価値のユースケースについて、初期実現可能性を示す概念実証(PoC)プロジェクトでプロトタイプをつくります。PoC 段階の迅速なフィードバックループで、アプローチを小規模にして反復と改良をします。CoE は、事業部門のリーダーと連携しながら、事業指標・KPI に紐付くPoC の成功基準を明確に設定します。さらにCoE は、専門知識、再利用できる資産、ベストプラクティス、標準を提供します。
経営幹部との連携
透明性を確保するため、事業部門の経営層は、AI/ML の取り組みに関与し、定期報告を受けます。エスカレーションが必要な課題は、取り組みに精通した経営層が迅速に解決できます。
8. 法務
AI/ML や生成AI の法的環境は複雑で進化を続けており、組織に多数の課題や影響をもたらしています。データプライバシー、知的財産、責任、偏見などの問題について、AI/ML CoE 内で慎重に検討する必要があります。規制が技術の進化に追い付いていこうとしている中、CoE は法務チームとこの変化する状況に対応し、コンプライアンスを遵守した責任ある開発や導入を進めます。状況は変化し続けるため、CoE は法務チームと連携して、AI/ML のライフサイクル全体をカバーする包括的なAI/ML ガバナンスポリシーを策定する必要があります。事業側の関係者が意思決定に参画することや、ガバナンスのポリシーが遵守されていることを検証するためにAI/ML システムを定期的に監査やレビューすることが含まれます。
9. 調達
AI/ML CoE は、購入か開発かの戦略策定に向けて、独立系ソフトウェアベンダー(ISV)やシステムインテグレーター(SI)などのパートナーと協力する必要があります。調達チームと連携して、選定から導入や管理を経て終了に至るまでのフレームワークを整備する必要があります。技術、アルゴリズム、データセットの取得が含まれます(MLモデルのトレーニングには信頼できるデータセットの調達が不可欠であり、また最先端のアルゴリズムや生成AI ツールの導入でイノベーションが促進されます)。こうしたことにより、事業に必要な機能の開発が加速されます。調達戦略では、持続可能で、拡張的で、責任あるAI を統合していくために、倫理的配慮、データセキュリティ、継続的なベンダーサポートを優先する必要があります。
10. 人事
AI/ML の人材管理と人材育成について、人事部門(HR)と提携します。技術を理解し、開発し、導入する人材を育成することが含まれます。人事部門は、技術と非技術の橋渡しを行い、横断的な共同を促進すると共に、新たな人材の採用、教育、プロフェッショナルとスキルの両面で成長の道筋をつくります。また、コンプライアンス研修を通じて倫理的な問題に対処し、最新の新興技術について従業員のスキルアップを図り、組織の持続的な成功を支える重要な役割における人材の影響を適切に管理します。
11. 規制とコンプライアンス
AI/ML の規制環境は急速に進化しており、世界中の政府がAI のアプリケーションの採用拡大に向けたガバナンス体制の確立を進めています。AI/ML CoE は、ブラジルの一般個人データ保護法(LGPD)、カナダの個人情報保護および電子文書法(PIPEDA)、欧州連合の一般データ保護規則(GDPR)などの規制法や、ISO 31700、ISO 29100、ISO 27701、連邦情報処理標準(FIPS)、NIST プライバシーフレームワークなどの枠組みを常に注意を払い、必要な対応を講じ、順守していく集中的なアプローチが求められます。米国では、規制措置として、AI の導入拡大がもたらすリスクの軽減、生成AIの影響を受ける労働者の保護、消費者保護の強化などがあります。EU AI 法には、新たな評価およびコンプライアンス要件が含まれています。
AI 規制が具体化する中、組織は責任あるAI を経営層の優先事項と位置付け、AI/ML に関する明確なガバナンスポリシーとプロセスを策定・実施し、意思決定プロセスに多様なステークホルダーを関与させることが推奨されます。進化する規制により、AI/ML ライフサイクル全体をカバーする包括的なAI ガバナンスポリシーと、アルゴリズムにおける偏り、透明性、説明責任を確保するためのAI システムの定期的な監査・レビューが重視されます。標準に則ることで、信頼の向上、リスクの軽減、先端技術の責任ある導入が促進されます。
結論
AI/ML CoE を成功に導く道のりは、多面的な取り組みであり、俊敏性と協調性をもって運営しながら、献身的かつ戦略的な計画を立てる必要があります。人工知能と機械学習が急速なペースで進化し続ける中、AI/ML CoE の設立は、それらの技術を活用して変革のインパクトを生み出すために必要な一歩です。明確なミッションの定義から、イノベーションの促進、倫理的ガバナンスの実施に至るまで、重要な検討事項に焦点を当てることで、AI/ML の取り組みから価値を創出する土台を築くことができます。さらに、AI/ML CoE は単なる技術革新の拠点ではなく、継続的な学習、倫理的責任、部門横断的なコラボレーションの意識を組織に拡げる文化変革の起点ともなります。
このシリーズでは、AI/ML CoE のトピックを引き続き取り扱っていきますので、ご期待ください。AI/ML CoE の設立をご検討の際は、スペシャリストにご相談ください。
著者について
Ankush Chauhan は、米国ニューヨークを拠点とするAWS のカスタマーソリューション担当シニアマネージャーです。Capital Markets のお客さまがクラウド・ジャーニーを最適化し、導入規模を拡大し、クラウドでの構築と発明がもたらす変革的価値を実現できるようサポートしています。また、生成AI を含むAI/ML ジャーニーを実現することにも注力しています。仕事以外では、ランニング、ハイキング、サッカー観戦を楽しんでいます。
Ava Kong は、AWS Generative AI Innovation Center の生成AI ストラテジストで、金融サービス分野を専門としています。ニューヨークを拠点に、様々な金融機関と緊密に連携し、最新の生成AI技術と戦略的洞察を組み合わせて、業務効率の向上、ビジネスアウトカムの促進、AI 技術の広範かつインパクトのあるアプリケーションを実証する様々なユースケースに取り組んでいます。
Vikram Elango は、米国バージニア州を拠点とするAWS のシニアAI/ML スペシャリスト・ソリューション・アーキテクトです。現在、生成AI、LLM、プロンプトエンジニアリング、大規模モデルの推論最適化、ML の企業全体への拡張に注力しています。大規模な機械学習アプリケーションの構築と導入のための設計と構想のリーダーシップで、金融・保険業界の顧客を支援しています。余暇は、家族と旅行、ハイキング、料理、キャンプを楽しんでいます。
Rifat Jafreen は、AWS Generative AI Innovation Center の生成AI ストラテジストで、生成AI を活用することで顧客が事業価値と業務効率を実現できるよう支援することに注力しています。彼女は、通信、金融、ヘルスケア、エネルギーなどの業界の多くの顧客に、機械学習のワークロードをオンボードしています。また、MLOps、FMOps、責任あるAI にも深く関わっています。
Arslan Hussain、David Ping、Jarred Graber、Raghvender Arni の支援、専門知識、指導に感謝しています。
翻訳者について
川口 賢太郎 (Kentaro Kawaguchi) は、プロフェッショナルサービスのシニアCS&Oアドバイザリーコンサルタントで、デジタル戦略立案とそれに即した組織の変革に注力しています。