Amazon Web Services ブログ

Generative AI with Large Language Models – DeepLearning.AI と AWS が提供する新しい実践コース

生成系 AI は世界を席巻しており、私たちは AI の広範な導入の次の波を目にし始めています。この動きは、あらゆるカスタマーエクスペリエンスやアプリケーションが、生成系 AI で革新される可能性を伴うものです。生成系 AI を利用することで、会話、物語、画像、動画、音楽などの新しいコンテンツやアイデアを生み出すことができます。生成系 AI は、一般に基盤モデル (FM) と呼ばれる、膨大な量のデータで事前トレーニングされた非常に大規模な機械学習モデルを利用します。

大規模言語モデル (LLM) と呼ばれる FM のサブセットは、多くの自然言語タスクにわたって、数兆の単語でトレーニングされます。これらの LLM は、テキストを理解および学習できるほか、人間が作成したテキストとほとんど区別できないテキストを生成することもできます。さらに、LLM はインタラクティブな会話に参加し、質問に答え、対話やドキュメントを要約し、推奨事項を提供することもできます。マーケティングでのクリエイティブライティング、法務における文書の要約、財務における市場調査、ヘルスケアにおける臨床試験のシミュレーション、ソフトウェア開発でのコード作成など、LLM は多くのタスクや業界にわたってアプリケーションを強化できます。

企業は、生成系 AI を自社の製品やサービスに統合するために急速に対応を進めています。この動きにより、生成系 AI と、ビジネスユースケースを解決するために LLM を適用する方法を理解するデータサイエンティストやエンジニアの需要が高まっています。

このような状況を踏まえ、DeepLearning.AI と AWS は共同で、Coursera の教育プラットフォームにおいて、新しい実践コースである「Generative AI with large language models」の提供を開始いたします。このコースを受講することにより、データサイエンティストやエンジニアは、実世界のアプリケーション向けに LLM を選択、トレーニング、微調整、デプロイするエキスパートになるための準備を整えることができます。

DeepLearning.AI は、世界クラスの AI 教育を提供することで、グローバルな AI コミュニティを成長させ、結び付けるというミッションをもって、機械学習と教育のパイオニアである Andrew Ng 氏によって 2017 年に設立されました。

大規模な言語モデルを備えた生成系 AI

DeepLearning.AI は、LLM を使用して生成系 AI アプリケーションを構築する方法を学びたいと考えているデータサイエンティストやエンジニア向けにこのコースを開発して提供するために、Chris FreglyShelbee EigenbrodeMike Chambers、そして私を含む AWS の生成系 AI スペシャリストと協力しました。このコースのコンテンツは、Andrew Ng 氏のガイダンスを受けながら、Amazon、AWS、Hugging Face のさまざまな業界のエキスパートや応用科学者からの意見を参考にして開発されました。

コースのハイライト
これは、LLM に焦点を当てた初の包括的な Coursera コースであり、問題の範囲設定、LLM の選択、LLM のドメインへの適応、デプロイのためのモデルの最適化、ビジネスアプリケーションへの統合など、一般的な生成系 AI プロジェクトのライフサイクルを詳しく説明します。このコースは、生成系 AI の実践的な側面に焦点を当てるだけでなく、LLM の背後にある科学と、LLM が効果的である理由にも焦点を当てます。

このオンデマンドコースは、約 16 時間の動画、クイズ、ラボ、追加の読み物を含む 3 週間のコンテンツで構成されています。AWS パートナーである Vocareum が主催する実践ラボでは、コースで提供される AWS 環境でテクニックを直接応用できます。また、このラボでは、LLM を使用してその有効性を探るために必要なすべてのリソースをご用意しています。

わずか 3 週間のこのコースを修了することで、ビジネスや現実世界のアプリケーションで生成系 AI を使用できるようになります。早速、各週のコンテンツを見ていきましょう。

第 1 週 – 生成系 AI のユースケース、プロジェクトのライフサイクル、モデルの事前トレーニング
第 1 週では、多くの LLM を支えるトランスフォーマーアーキテクチャと、これらのモデルのトレーニング方法を詳しく確認するとともに、モデルの開発に必要なコンピューティングリソースを検討します。また、プロンプトエンジニアリングを使用し、生成構成の設定を指定することによって、推論時にモデルの出力をガイドする方法についても詳しく学習します。

最初の実践ラボでは、特定の生成タスク用に、さまざまなプロンプトを作成して比較します。ここでは、複数の人々の間の会話を要約します。例えば、自分とお客様との間で行われたサポートに関する会話を要約することを想像してください。プロンプトエンジニアリングの手法を詳しく確認し、さまざまな生成構成パラメータを試するとともに、さまざまなサンプリング戦略を実験して、モデルの生成された応答を改善する方法を直感的に理解します。

第 2 週 – 微調整、Parameter-Efficient Fine-Tuning (PEFT)、およびモデルの評価
第 2 週では、微調整と呼ばれるプロセスを通じて、事前トレーニングされたモデルを特定のタスクやデータセットに適応させるためのオプションを詳しく見ていきます。Parameter-Efficient Fine-Tuning (PEFT) と呼ばれる種類の微調整を使用すると、はるかに小さいリソース (通常は 1 つの GPU) を使用して、非常に大規模なモデルを微調整できます。また、LLM のパフォーマンスを評価および比較するために使用されるメトリクスについても学習します。

2 番目のラボでは、Parameter-Efficient Fine-Tuning (PEFT) を実践し、その結果を、最初のラボのプロンプトエンジニアリングと比較します。この比較は、LLM をドメイン固有のデータセットやユースケースに適応させるためのさまざまな手法の定性的および定量的な影響を直感的に理解するのに役立ちます。

第 3 週 – 人間のフィードバックからの強化学習 (RLHF)、Retrieval-Augmented Generation (RAG)、および LangChain による微調整
第 3 週では、人間のフィードバックからの強化学習 (RLHF) と呼ばれる手法を使用して、LLM の応答をより人間らしくするとともに、人間の好みに合わせて調整します。RLHF は、モデルの誠実さ、無害性、有用性を向上させる鍵となります。また、Retrieval-Augmented Generation (RAG) などの手法や、LangChain などのライブラリについても学習します。これらを使用することで、LLM をカスタムデータソースや API と統合してモデルの応答をさらに改善できます。

最後のラボでは、RLHF を実際に用います。報酬モデルと Proximal Policy Optimization (PPO) と呼ばれる強化学習アルゴリズムを使用して LLM を微調整し、モデルの応答の無害性を高めます。最後に、RLHF プロセスの前後のモデルの無害性を評価し、LLM を人間の価値観や好みに合わせて調整する際の RLHF の影響を直感的に理解します。

今すぐご登録ください
大規模な言語モデルを使用した生成系 AI は、LLM を使用して生成系 AI アプリケーションを構築する方法を学びたいデータサイエンティストとエンジニアを対象とした 3 週間のオンデマンドコースです。

「Generative AI with Large Language Models」に今すぐご登録ください。

Antje

原文はこちらです。