Meta の Llama 3.2 モデルが Amazon Bedrock でファインチューニング可能に
Amazon Bedrock が、Meta の Llama 3.2 モデル (1B、3B、11B、90B) のファインチューニングをサポートするようになりました。これにより、企業はこれらの生成 AI モデルを独自のデータでカスタマイズできます。Llama 3.2 モデルには、小サイズ (1B および 3B) から中サイズ (11B および 90B) のマルチモーダルモデルまで、さまざまなサイズがあります。Llama 3.2 の 11B モデルと 90B モデルは、Llama シリーズでテキストタスクとビジョンタスクの両方をサポートする初のモデルです。画像エンコーダー表現を言語モデルに統合することでこれを実現しています。ファインチューニングによって、Llama 3.2 モデルを分野に特化したタスクに適合させ、特殊なユースケースに対するパフォーマンスを向上させることができます。
Llama 3.2 90B モデルは、高度な推論、長文テキスト生成、コーディング、多言語翻訳、またキャプション作成、視覚的な質問応答、ドキュメント分析などの画像推論タスクを得意とします。Llama 3.2 11B モデルは、コンテンツ制作、会話型 AI、エンタープライズアプリケーション向けに設計されており、テキストの要約、感情分析、視覚的理解において優れたパフォーマンスを発揮します。リソースに制約のあるシナリオでは、軽量の Llama 3.2 1B モデルと 3B モデルを使用してオンデバイスアプリケーションを実装し、レイテンシーを抑えつつプライバシーを保護し、テキストの要約、分類、検索などのタスクを優れたパフォーマンスで実行できます。Amazon Bedrock で Llama 3.2 モデルをファインチューニングすることで、企業は特殊なアプリケーション向けの機能をさらに強化し、モデルをゼロから構築することなく精度と関連性を向上させることができます。
Amazon Bedrock で Llama 3.2 モデルのファインチューニングは、米国西部 (オレゴン) AWS リージョンでご利用いただけます。料金については、Amazon Bedrock の料金ページをご覧ください。使用を開始するには、Amazon Bedrock ユーザーガイドを参照し、Amazon Bedrock コンソールにアクセスしてください。