Amazon Web Services ブログ
Tag: 生成AIモデル開発を始める
大規模な分散トレーニングに特化したインフラストラクチャ、Amazon SageMaker HyperPod のご紹介
11月29日は、Amazon SageMaker HyperPod を紹介します。この製品は、大規模な分散トレ […]
Amazon SageMaker JumpStart を使って OSS の日本語大規模言語モデル (LLM) がどこまでできるか試してみた
最近次々と OSS (Open Source Software) の日本語 LLM が発表されています。Ama […]
無料のノートブックサービス SageMaker Studio Lab で 日本語 LLM を Fine-Tuning する
本ブログでは、日本語 LLM の OSS である OpenCALM を LoRA (Low-Rank Adaptation) を用いた Fine-Tuning によりクイズ回答の精度を向上させるコードを SageMaker Studio Lab 上で実行することに挑戦します。最初に背景や課題についてご説明しますが、早速動かしてみたい方は、SageMaker Studio Lab で日本語 LLM OpenCALM を動かす準備 からお読みいただくとスムーズです。
FMOps/LLMOps:生成系 AI の運用と MLOps との違い
最近、多くのお客様は大規模言語モデル (Large Language Model: LLM) に高い期待を示し […]
Amazon SageMaker 上で AWS Inferentia2 と AWS Trainium を使って、低コストで高性能な生成系 AI 推論を実現
2023年5月4日、Amazon SageMaker が AWS Inferentia2 (ml.inf2) と AWS Trainium (ml.trn1) ベースの SageMaker インスタンスをサポートして、リアルタイムおよび非同期推論のための生成系 AI モデルをホストすることを発表しました。この記事では、大規模モデル推論 (LMI) コンテナを活用して、SageMaker を使用して AWS Inferentia2 に大規模な言語モデルをデプロイするプロセスを示します。
Amazon EC2 Trn1 UltraClusters を使って大規模言語モデル(LLM)学習をスケールする
2022 年 10 月に、AWS が設計した第 2 世代の機械学習アクセラレータである AWS Trainium を搭載した Amazon EC2 Trn1 インスタンス がローンチしました。Trn1 インスタンスは、ハイパフォーマンスなディープラーニングモデルの学習のために設計されており、同等の GPU ベースのインスタンスと比べてモデルの学習にかかるコストを最大 50% 節約できます。EC2 Trn1 UltraCluster を使用して大規模モデルの学習ジョブを分散することで、学習時間を数週間から数日に、または数日から数時間に短縮することができます。
独自設計チップ AWS Trainium 搭載 Amazon EC2 Trn1 インスタンスで ML トレーニングを高速実行(実践編)
こんにちは!アマゾン ウェブ サービス ジャパン合同会社 アンナプルナラボの常世です。 2022 年 10 月 […]
独自設計チップ AWS Trainium 搭載 Amazon EC2 Trn1 インスタンスで ML トレーニングを高速実行(基礎編)
こんにちは!アマゾン ウェブ サービス ジャパン合同会社 アンナプルナラボの常世です。 アンナプルナラボって何 […]