Meta の Llama 3.1 8B および 70B モデルが Amazon Bedrock でファインチューニング可能に
Amazon Bedrock は、Meta の Llama 3.1 70B および 8B モデルのファインチューニングをサポートするようになりました。これにより、企業はこれらの生成 AI モデルを独自のデータでカスタマイズできます。Llama 3.1 モデルは、Llama 3 の 16 倍の 128K のコンテキスト長など、以前のバージョンに比べて大幅に改善されています。これにより、長いテキストパッセージから大量の情報にアクセスして処理できます。ファインチューニングを使用して Llama 3.1 モデルをドメイン固有のタスクに適合させ、特殊なユースケースでのモデルパフォーマンスを向上させることができます。
Meta によると、Llama 3.1 モデルは 8 つの言語での多言語対話に優れており、推論の向上が実証されているとのことです。Llama 3.1 70B モデルは、コンテンツ制作、会話型 AI、言語理解、R&D、エンタープライズアプリケーションに最適です。テキストの要約、テキスト分類、感情分析、ニュアンスの推論、言語モデリング、対話システム、コード生成、指示に従うなどのタスクに優れています。Llama 3.1 8B モデルは、計算能力とリソースが限られているシナリオに最適で、テキストの要約、分類、感情分析、言語翻訳に優れていると同時に、低レイテンシーの推論を実現します。Amazon Bedrock で Llama 3.1 モデルをファインチューニングすることで、企業は特殊なアプリケーション向けの機能をさらに強化し、モデルをゼロから構築することなく精度と関連性を向上させることができます。
Llama 3.1 モデルは、米国西部 (オレゴン) AWS リージョンの Amazon Bedrock でファインチューニングできます。料金については、Amazon Bedrock の料金ページをご覧ください。使用を開始するには、Bedrock ユーザーガイドをご覧ください。