Amazon Web Services ブログ
【開催報告 & 資料公開】Generative AI(生成系 AI)へのアプローチ – 今、見直される AI 活用と変革を迎える生成系 AI 戦略
アマゾン ウェブ サービス ジャパン合同会社 機械学習ソリューションアーキテクトの卜部 & 伊藤です。2023年5月11日にオンラインで開催された 「Generative AI(生成系 AI )へのアプローチ」では、生成系 AI を活用するための戦略について、4つのセッションをお届けしました。まず、これまでの機械学習のユースケースを振り返り、生成系 AI の新しいユースケースの導入についてご説明しました。次に、現在変革を迎える生成系 AI について背景や課題を説明しました。その後、AWS 上で自社用の基盤モデルを作成する方法についてご紹介し、最後に、生成系 AI モデルを AWS で簡単に作成する方法と、生成系 AI の活用アイデアやシステム設計時に考慮すべき点をデモを交えて紹介しました。
「転換点を迎える AI/ML ユースケース」[Slides]
アマゾン ウェブ サービス ジャパン合同会社
AI/ML 事業開発マネジャー
浅倉 靖之
オープニングセッションでは、AIと機械学習(ML)のユースケースが転換点にあるという点を強調しました。これまで私たちは、成果が目に見える機械学習のユースケースに焦点を当ててきました。これには、顧客体験の改善(例:コンタクトセンターの顧客分析、チャットボット、パーソナライゼーション)、データの異常検出を通じた意思決定の改善、社内のインテリジェントドキュメント検索や予防保全、機械翻訳による業務やコスト改善などが含まれます。今日、生成系 AI の台頭により、新しい製品やサービスの登場、新しいユースケースが誕生し、新たな挑戦が可能になってきました。
「今変革を迎える生成系 AI」[Slides]
アマゾン ウェブ サービス ジャパン合同会社
プリンシパル AI/ML 事業開発マネジャー
黒川 亮
次のセッションでは、ビルダーの皆様と生成系 AI 活用の最初の一歩を踏み出すために、AWS の生成系 AI に対する取り組みやソリューションについてご紹介しました。まずは、AWS のサービスがお客様との対話で生まれることをご紹介しました。20年以上にわたる Amazon の機械学習によるイノベーションについて紹介し、「全てのお客様に機械学習をお届けする」という AWS のミッションをご紹介しました。機械学習は転換点に立っており、この数週間で新しいモデルが次々に生まれていることを確認し、新しいコンテンツやアイディアを創造している基盤モデル(FM : Foundation Model)について説明いたしました。この基盤モデルはすでに Amazon で利用されており、Amazonの検索機能、Alexa 教師モデル、Amazon CodeWhisperer などで利用されているということをご紹介しました。そして、AWS の生成系 AI ソリューションとして、2023年4月14日に発表されたAmazon Bedrock をご紹介しました。Amazon Bedrock は、複数の基盤モデルから用途に最適なものを選択でき、Amazon が提供する Amazon Titan をはじめとして、AI21 Labs の Jurassic、Anthropic の Claude、Stability AI の Stable Diffusion などの最先端スタートアップ企業が提供するモデルも予定されています。Amazon Titan については、Titan Text、Titan Embeddingsがあることをご紹介しました。AWS の機械学習特化型アクセラレータとして、AWS Inferentia、AWS Trainium、AWS Inferentia2 をご紹介し、できる限りコスト効率良く、二酸化炭素排出量を最小限に抑えることができるソリューションであることを説明しました。次に、基盤モデルの3つの活用方法、プロプライエタリモデル使用、公開済みモデル・チューニング、スクラッチモデル開発それぞれにおける課題を説明しました。最後に、AWSはお客様が求めるモデルにあった形でご支援できることをご説明し、明日への第一歩を共に踏み出すお手伝いができることをお伝えしました。
「AWS で作る自社用基盤モデル」[Slides]
アマゾン ウェブ サービス ジャパン合同会社
機械学習ソリューションアーキテクト
卜部 達也
続いてのセッションでは、自社用の基盤モデルをAWS上で一から作る方法について機械学習ソリューションアーキテクトの卜部が講演しました。まず基盤モデルの特徴を説明し、その上で独自のモデルを一から作る必要性について説明しました。基盤モデルはモデルのパラメータサイズも学習させるデータ量も膨大なため、学習に際して大量のコンピュートリソース(典型的にはGPUインスタンス)を必要とします。必然的にコストがかかるため、ビジネスに即したモデルを効率良く構築することが重要であることを述べました。また、コストをかけて独自モデルを一から構築する理由やモチベーションについても述べました。次に基盤モデルを構築するための開発プロセスについて説明しました。全体のプロセスを、1) ビジネス要件に即した基盤モデルのアーキテクチャと学習条件を決定するフェイズ、2) 条件に対して学習環境や分散学習パラメータを最適化するフェイズ、3) 最適化した環境で実際に本番の学習を行うフェイズ、4) 作成したモデルを活用するフェイズ、の4つに分けて実際の工程の一例を紹介しました。最後に、AWSで基盤モデルを作成するメリットとして、AWSの支援体制やテクノロジーについて触れました。支援体制として Amazon Machine Learning Solutions Lab やAWS プロフェッショナルサービスをご紹介しました。また、基盤モデル作成に関するサービスとしてAmazon SageMakerの分散学習機能について説明しました。最後に、高性能、低コストを両立するAWSの独自設計MLチップ搭載インスタンスを紹介しました。学習用のインスタンスとして AWS Trainium があり最大72%のコスト削減ができること、推論用のチップとして AWS Inferentia2 があり最大65%のコスト削減効果があることをお話ししました。まとめとして、AWSでは国内外のさまざまなお客様への自社用基盤モデルの構築の実績があること、そして手厚い支援体制、モデル構築のテクノロジー、コスト最適なインスタンスによってお客さまの基盤モデルの業務活用を最大限に支援できることをお話ししました。
「AWS で簡単に作る生成系 AI モデル(デモ)」[Slides]
アマゾン ウェブ サービス ジャパン合同会社
機械学習ソリューションアーキテクト
伊藤 芳幸
最後のセッションでは、公開済み基盤モデルの活用・チューニングを主に検討されているモデルチューナーの方向けに、「生成系 AI の活用アイディアとシステムとして考慮すべき点を知る」ことを目的として、様々なデモンストレーションを実施しました。はじめに、Amazon SageMaker JumpStartによる、基盤モデルの試し方とデプロイノートブックの紹介、Amazon SageMaker Studio コンソールからのワンクリックデプロイのデモンストレーションを実施しました。次に、生成系 AI を実際の業務やアプリケーションに活用するためのヒントとして、二つの具体的なアプリケーションを紹介しました。「社内ドキュメントからの回答文生成」では、Retrieval Augmented Generation (RAG) という仕組みについて、 Amazon Kendra を組み合わせた構成を説明し、大規模言語モデル(LLM : Large Language Model) として、SageMaker にデプロイした FLAN_XLと、 OpenAI API を利用した場合のデモを実施しました。「コールセンターでの通話要約文生成」では、通話のリアルタイム書き起こし、感情分析、参考ドキュメント提示、通話内容要約などの機能を提供する分析ダッシュボードとアーキテクチャを説明し、実際に日本語音声での分析デモ(録画)を実施しました。
<コールセンターの通話要約文生成デモ(22:28から再生、ブラウザリロードで再度同じ地点に戻ります)>
デモの後に、英語の要約モデルを利用するために Amazon Translate を入力と出力に組み込む方法についてご説明しました。アプリケーションのポイントとして、要件を満たすためにどこまで大規模なモデルが必要なのか検討することが重要であることを述べさせていただきました。最後に、開発者向けコード生成ソリューションの Amazon CodeWhisperer をご紹介しました。個人開発者は無料で利用できることをお伝えし、ライブデモを行った JAWS-UG AI/ML #16 Generative AI を紹介させていただきました。
おわりに、セッションのまとめとして3点を挙げさせていただきました。
- 要件を満たす生成系 AI モデルを目利きする
- 他機能と組み合わせてアプリケーションでできることを拡張するために、柔軟性の高いシステム構成を考慮する
- SageMaker エンドポイントに生成系 AI モデルをデプロイすることで、データの流れを自社 AWS 環境内で完結することが可能
まとめ
今回は、 Generative AI(生成系 AI )へのアプローチというテーマで、AIと機械学習(ML)のユースケースが転換点にあるという背景や課題についてご説明し、AWS の取り組みの紹介と、基盤モデルを活用する3通りの方法をご説明しました。自ら基盤モデルをスクラッチ開発したいモデルプロバイダーの方向けに基盤モデル開発のためのプロセスや注意点を、公開済み基盤モデルの活用・チューニングを主に検討されているモデルチューナーの方向けに基盤モデルを簡単に試したりデプロイするためのソリューション紹介と、生成系 AI を組み込んだソリューションを2つのデモを交えてご紹介させていただきました。
これまでの AI/ML 関連イベントの開催報告と登壇スライドは、以下のリンクからご覧いただけます。
AWS AI/ML@Tokyo 開催報告まとめ