Amazon Web Services ブログ

【開催報告】基盤モデル開発者向け Deep Dive セッション: 最新の生成 AI 技術 ~ AWS Trainium2 and Amazon Bedrock Marketplace ~

アマゾン ウェブ サービス ジャパン合同会社は、2025年1月14日に「基盤モデル開発者向け Deep Dive セッション: 最新の生成 AI 技術 ~ AWS Trainium2 & Amazon Bedrock Marketplace ~」を開催しました。

本イベントでは、最新の AWS Trainium2 チップを搭載した Amazon EC2 Trn2 インスタンスおよび Trn2 UltraServers、 100以上の基盤モデルへのアクセスが可能な Amazon Bedrock Marketplace について、生成 AI 基盤モデル開発者向けに深掘りするセッションが行われました。本記事では、その模様をお届けします。

オープニング

Toshi Yasuda

はじめに、アマゾン ウェブ サービス ジャパン合同会社 常務執行役員 サービス & テクノロジー統括本部 統括本部長 安田 俊彦より開会のあいさつをしました。これまで AWS は一貫して、エンジニアがものづくりをしやすい環境を構築してきました。各種のサービスを提供するだけではなく、技術ノウハウをエンジニア同士で共有する場を設けています。

特に近年では日本において、2023年に「AWS LLM 開発支援プログラム」、2024年に「AWS ジャパン 生成 AI 実用化推進プログラム」を開始するなど、生成 AI や大規模言語モデル (以下、LLM) の開発支援に注力しています。また、経済産業省の「GENIAC (Generative AI Accelerator Challenge)」においても計算リソース提供者として選定されました。

グローバルでも、「AWS re:Invent 2024」では生成 AI 関連で 500 以上のセッションが行われ、最新の AWS Trainium2 チップを搭載する Amazon EC2 Trn2 インスタンスの一般提供開始となり Trn2 UltraServers のプレビューが発表されました。さらに、Amazon Bedrock 上で100以上の基盤モデルを利用できる Amazon Bedrock Marketplace も発表されました。

これらの新サービスについて、今回のイベントにて詳細を解説する旨を述べたうえで「AWS はこれからも、新しいテクノロジーを世界中に届けます」と結びました。

Amazon EC2 Accelerated Compute Update + AWS Trainium2 Deep Dive

ここからは、AWS Sr. Product Manager で AWS Trainium, Inferentiaを担当している Joe Senerchia (写真左) と 同じく GPU インスタンスを担当している Dvij Bajpai (写真右) が登壇しました。生成 AI の基盤モデルの学習や推論に適したインフラストラクチャーについて述べ、その上で動作する「Accelerated Compute」アーキテクチャ、その中核をなす新しいサービスについて解説を行いました。

冒頭では、基盤モデルの学習を支えるAWSのインフラ技術要素として、二つの重要なポイントが挙げられました。一つ目はネットワークです。複数のインスタンスへ学習をスケールさせるためには、広帯域の Elastic Fabric Adapter (EFA) が必要不可欠であると説明されました。
二つ目はストレージです。大規模なモデルの学習には膨大なデータが必要となります。さらに、チェックポイントやデータセットの保存も考慮しなければなりません。これらの課題に対応するため、AWS ではマネージドサービスである Amazon FSx for Lustre を提供しています。このサービスを利用することで、ストレージがボトルネックとなることなく GPU 利用率を向上させる仕組みが実現されています。また、FSx for Lustre は昨年、前述の EFA にも対応いたしました。 この2つのサービスを組み合わせることで、これまで以上に大規模学習に伴うデータの読み書きが高速化されます。

EC2 Trn2 インスタンスTrainium2 (96 GiB HBM) を16チップ搭載し、192 vCPU、2 TiB のホストメモリ、3.2 Tbps の EFA v3 ネットワーク帯域幅を備えています。Trn2 インスタンスでは、Dense 演算性能で 20.8 PFLOPS (FP8)、Sparse 演算性能で 41 PFLOPS (FP8/FP16/BF16/TF32) の性能を持ち、1.5 TiB の HBM を搭載し 46.4 TB/s のメモリ帯域幅を提供します。
さらに、Trn2 UltraServers についても解説がありました。Trn2 UltraServers は、1 台のサーバー内に 64 個の AWS Trainium2 チップを搭載し、NeuronLink というチップ間の低遅延・高帯域幅通信により、高密度な計算環境を実現します。この設計は、大規模モデルの分散学習や推論において優れたパフォーマンスを発揮します。

AWS Trainium2 の性能を最大限に引き出すためには、AWS Neuron SDK の利用が重要です。Neuron SDK は、Trainium チップ専用に設計された開発ツールであり、PyTorch や JAX などの主要な機械学習フレームワークをサポートしています。

また、AWS は Anthropic と共同で次世代の AI プロジェクト「Project Rainier」にも取り組んでいます。このプロジェクトでは、数十万個の AWS Trainium2 チップを用いて ExaFLOPS 規模の学習を実現することを目指しており、EC2 UltraServers の進化がその中核を支えています。

Introducing Amazon Bedrock Marketplace

John Liu
次に、AWS で Amazon Bedrock の Principal Product Manager を務める John Liu が登場しました。Amazon Bedrock は企業がさまざまな生成 AI モデルやツールにアクセスし、それらを簡単に利用できるようにします。

Amazon Bedrock Marketplace では、特定業界や用途に特化した100以上の多様なモデルへのアクセスが可能です。これらのモデルは、Amazon Bedrock の Converse APIInvokeModel API を通じて簡単に利用できます。モデルの利用に必要なインフラは Amazon SageMaker AI 上で提供されています。ユーザーはインスタンスのタイプや数を柔軟に選択でき、必要に応じてオートスケールのポリシーを設定することも可能です。これにより、ワークフローに最適化されたスケーラブルなモデル運用が実現します。

プロバイダー側にも多くの利点があります。Amazon Bedrock Marketplace を活用することで、プロバイダーはモデルの提供プロセスを効率化し、オンボーディングにかかる時間を短縮できます。また、AWS Marketplace を通じて価格設定を管理することも可能です。セキュリティとプライバシー保護も重要な特徴です。Amazon SageMaker AI に基づくコンテナ環境で、モデルの重みといった知的財産 (IP) が外部へ流出しない仕組みが整えられています。

Customer Session

ここからは、AWS の生成 AI 関連サービスを活用している企業の方々による Customer Session が行われました。

カラクリ株式会社

Nakayama-san
カラクリ株式会社 取締役 CPO の中山 智文 氏は、同社が開発した生成 AI モデル「KARAKURI LM シリーズ」について紹介しました。このシリーズは、日本のカスタマーサポート関連データを大量に学習したオープンモデルです。HuggingFace で公開されているほか、AWS Marketplace でも利用可能です。

同社はコスト削減やモデルの計算リソース確保のために AWS Trainium を活用しています。AWS Trainium は GPU の約半額で運用でき、AWS からの手厚いサポートが受けられることが大きな利点です。一方で、対応済みのモデルやアルゴリズム以外は自前で対応する必要があることや、AWS Trainium に関連するコミュニティや知見がまだ不足している点を課題に挙げ、「ユーザーコミュニティの成長による、技術の共有と発展が重要」と期待を表現しました。

株式会社 Preferred Networks

Fukuda-san
株式会社Preferred Networks Vice President of Consumer Products の福田 昌昭 氏は、同社が開発した大規模言語モデル「PLaMo」について説明しました。「PLaMo」は GENIAC 第一期で 100B モデルとしてリリースされ、商用版である「PLaMo Prime」は 2024 年 12 月に提供開始されました。また、小規模言語モデル (SLM) の開発にも注力し、コスト削減やリアルタイム処理への対応を目指しています。

「PLaMo」は Amazon Bedrock Marketplace で提供されており、クローズドなクラウド環境で安全に利用できる仕組みを構築しています。また、コスト削減や計算リソースの安定確保などの課題を解消するために、EC2 G6e インスタンス (NVIDIA L40S Tensor Core GPU) やカスタムシリコン (AWS Trainium、AWS Inferentia) の活用を進めています。福田 氏は生成 AI が「試す」段階から「使う」段階に進んでいると述べ、AWS を活用して生成 AI の社会実装を推進する意向を示しました。

株式会社 リコー

Suzuki-san
株式会社リコー デジタル戦略部 デジタル技術開発センター 副所長の鈴木 剛 氏は、同社の AI 事業と生成 AI に関連する取り組みについて説明しました。リコー社は、生成 AI やプライベート LLM を活用した AI ソリューションを提供しており、高性能な日本語 LLM の開発を進めています。特に、ベクトル検索やプライベート LLM の実用化に注力し、オープンソースや独自技術を組み合わせることで柔軟なモデル構築を実現しています。

AI モデルの開発においては、オープンなモデルをベースとしつつ、日本語性能を高めるためトークナイザーの工夫やカリキュラム学習、モデルマージを駆使しています。GPT-4 と同等の日本語性能を達成し、多言語対応も進めています。また、AWS Trainium を利用することで、GPU と比較して大幅なコスト削減と効率向上を実現しました。特に、モデルの学習時にスループットを測定し、最適な運用方法を導き出すことで開発効率を高めています。

ストックマーク株式会社

Arima-san

ストックマーク株式会社 取締役 CTO の有馬 幸介 氏は、同社が提供する AI プロダクトと AWS の活用について説明しました。同社のプロダクトである「A news」「A strategy」には、独自開発の LLM が導入されています。LLM 開発において AWS Trainium を利用したことで、GPU と比較して約 20% のコスト削減を実現しました。また、推論基盤としても AWS Inferentia2 を活用しています。

さらに、Amazon Bedrock Marketplace にモデルを提供しており、これにより広範囲の顧客にリーチできるほか、モデルファイルを直接共有せずに価値を提供できることが利点です。有馬 氏は、AWS Trainium や Amazon Bedrock の活用は敷居が低く、効率的なプロダクト開発を可能にする手段であると強調しました。同社はこれらの技術を活用し、顧客価値を提供するプロダクトの開発を今後も進めていくと締めくくりました。

懇親会

Ending1

セッション終了後には懇親会が開催され、登壇者や参加者同士が自由に交流する場が設けられました。ここでは、生成 AI 技術や AWS の最新サービスについての情報共有や意見交換が活発に行われ、参加者にとって有益な時間となりました。

おわりに

AWS は引き続き、最先端の技術を提供するだけでなく、開発者や企業がそれを最大限に活用できる環境を構築してまいります。学習や交流のための場も積極的に設けますので、ぜひ次回のイベントにご参加いただければ幸いです。

AWSと生成AIでのビジネス課題を解決されたい方は生成AI実用化推進プログラムをご活用ください (申し込みは2月14日まで)。2月7日に 第2回 AWS ジャパン 生成 AI Frontier Meetup ~学びと繋がりの場~も開催しますのでご参加ください。

著者について

Yoshitaka Haribara

針原 佳貴
Sr. GenAI Startup Solutions Architect, AWS Japan.
日本の生成 AI スタートアップ担当として、基盤モデル開発や Amazon Bedrock Marketplace へのモデル公開を支援。本イベントでは、John のサポートと Customer Session のファシリテーションで参加。