投稿日: Apr 18, 2024

本日より、Meta Llama の次世代モデルである Llama 3 が Amazon SageMaker JumpStart で利用できるようになりました。SageMaker JumpStart は、機械学習 (ML) をすぐに使用するのに役立つ、事前トレーニング済みモデル、組み込みアルゴリズム、および事前に構築されたソリューションを提供する ML ハブです。この Llama 3 基盤モデルは、SageMaker Studio での数回クリックで、または SageMaker Python SDK を介してプログラムによって、実装して使用できます。

Llama 3 には 8B、70B といったさまざまなサイズのパラメーターがあり、推論、コード生成、および指示実行能力が向上しているため、幅広いユースケースをサポートできます。Llama 3 はデコーダーのみのトランスフォーマーアーキテクチャと新しいトークナイザーを使用しており、モデルのパフォーマンスが向上しています。さらに、Meta の改良されたポストトレーニング手順により、誤拒否率が大幅に減少し、アライメントが改善され、モデル応答の多様性が向上しました。SageMaker Pipelines、SageMaker Debugger、コンテナログなどの Amazon SageMaker の機能を使用して、Llama 3 パフォーマンスと MLOps の各コントロールを組み合わせて活用できるようになりました。モデルは VPC 制御下にある AWS の安全な環境にデプロイされ、データセキュリティが確保されます。

Llama 3 基盤モデルは現在、SageMaker JumpStart で米国東部 (オハイオ)、米国西部 (オレゴン)、米国東部 (バージニア北部)、アジアパシフィック (東京)、および欧州 (アイルランド) の AWS リージョンで最初にご利用いただけます。SageMaker JumpStart で Llama 3 基盤モデルの使用を開始するには、ドキュメントブログを参照してください。