Amazon Bedrock での Meta の Llama

Llama で AI の未来を築く

Llama 3.3 のご紹介

Llama 3.3 はテキスト専用の 70B インストラクションチューニングモデルで、Llama 3.1 70B や Llama 3.2 90B (テキスト専用アプリケーションに使用される場合) よりも優れたパフォーマンスを提供します。Llama 3.3 70B は Llama 3.1 405B と同様のパフォーマンスを提供しますが、必要なコンピューティングリソースは Llama 3.1 405B に比べてごくわずかです。

利点

Llama を知る

過去 10 年以上にわたり、Meta はツールをデベロッパーの手に渡し、デベロッパー、研究者、組織間の協業と進歩を後押しすることに力を入れてきました。Llama モデルにはさまざまなパラメータサイズがあり、デベロッパーはニーズと推論の予算に最適なモデルを選ぶことができます。Amazon Bedrock の Llama モデルは、デベロッパーがスケーラビリティやインフラストラクチャの管理について心配する必要がないため、可能性の世界が拓きます。Amazon Bedrock は、デベロッパーがターンキーで Llama を使い始められる非常にシンプルな方法です。

ユースケース

Llama モデルは、画像理解と視覚的推論、言語のニュアンス、コンテキスト理解、および視覚データ分析、画像のキャプション作成、ダイアログ生成、翻訳およびダイアログ生成などの複雑なタスクで優れたパフォーマンスを発揮し、複数ステップのタスクを簡単に処理できます。Llama モデルが最適な他のユースケースには、高度な視覚的推論と理解、画像テキスト検索、視覚的グラウンディング、ドキュメントの視覚的質疑応答、テキスト要約と精度、テキスト分類、感情分析とニュアンス推論、言語モデリング、ダイアログシステム、コード生成、指示の遵守が含まれます。

モデルバージョン

Llama 3.3 70B

テキスト専用の 70B インストラクションチューニングモデルで、Llama 3.1 70B や Llama 3.2 90B (テキスト専用アプリケーションに使用される場合) よりも優れたパフォーマンスを提供します。Llama 3.3 70B は Llama 3.1 405B と同様のパフォーマンスを提供しますが、必要なコンピューティングリソースは Llama 3.1 405B に比べてごくわずかです。

最大トークン: 128,000

言語:英語、ドイツ語、フランス語、イタリア語、ポルトガル語、スペイン語、タイ語。

微調整対応: いいえ

サポートされているユースケース: コンテンツ作成、エンタープライズアプリケーション、および研究用に設計された会話型 AI で、テキスト要約、分類、センチメント分析、コード生成などの高度な言語理解機能を提供します。このモデルは、モデルの出力を活用して、合成データの生成や抽出など、他のモデルを改善する機能もサポートしています。

Llama 3.2 90B

テキストと画像の両方の入出力を受け取るマルチモーダルモデル。画像分析、文書処理、マルチモーダルチャットボット、自律システムなど、高度なビジュアルインテリジェンスを必要とするアプリケーションに最適です。

最大トークン: 128,000

言語: 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語。

微調整対応: いいえ

サポートされているユースケース: ビジュアルおよびテキスト入力から推論して結論を導き出す独自の機能を使用した画像理解、視覚的推論、マルチモーダルインタラクション、および画像キャプション作成、画像テキスト検索、視覚グラウンディング、視覚的質問応答、文書視覚的質問応答などの高度なアプリケーションの実現。

ブログを読む

Llama 3.2 11B

テキストと画像の両方の入出力を受け取るマルチモーダルモデル。画像分析、文書処理、マルチモーダルチャットボットなど、高度なビジュアルインテリジェンスを必要とするアプリケーションに最適です。

最大トークン: 128,000

言語: 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語。

微調整対応: いいえ

サポートされているユースケース: 画像理解、視覚的推論、マルチモーダルインタラクション、および画像キャプション作成、画像テキスト検索、視覚グラウンディング、視覚的質問応答、文書視覚的質問応答などの高度なアプリケーションの実現。

ブログを読む

Llama 3.2 3B

非常に正確で、関連性の高い結果を提供するために構築されたテキストのみの軽量モデル。低レイテンシーの推論と限定的な計算リソースを使用するアプリケーション向けに設計されています。クエリやプロンプトの書き換え、モバイル AI を活用した文章作成アシスタント、カスタマーサービスアプリケーションに最適です。特にエッジデバイスでは、その効率性と低レイテンシーにより、モバイル AI を活用した文章作成アシスタントやカスタマーサービスチャットボットなどのさまざまなアプリケーションへのシームレスな統合が可能です。

最大トークン: 128,000

言語: 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語。

微調整対応: いいえ

サポートされているユースケース: 高度なテキスト生成、要約、感情分析、エモーショナルインテリジェンス、文脈理解、常識推論。

ブログを読む

Llama 3.2 1B

迅速かつ正確な応答を提供するために構築された、テキストのみの軽量モデル。エッジデバイスやモバイルアプリケーションに最適です。このモデルは、デバイス上の AI 機能を実現しつつ、ユーザーのプライバシーを保護し、レイテンシーを最小限に抑えます。

最大トークン: 128,000

言語: 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語。

微調整対応: いいえ

サポートされているユースケース: 個人情報管理、多言語知識検索、書き換えタスクなどの多言語対話ユースケース。

ブログを読む

Llama 3.1 405B

エンタープライズレベルのアプリケーション、研究開発、合成データ生成、モデル抽出に最適です。レイテンシーが最適化された推論機能をパブリックプレビューで利用できるようになったことで、このモデルは優れたパフォーマンスとスケーラビリティを実現します。これにより、組織は多様なユースケースで高品質のアウトプットを維持しながら AI の取り組みを加速できます。

最大トークン数
: 128,000

言語:英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語。

微調整対応: 近日公開予定

サポート対象のユースケース: 一般知識、長文テキスト生成、機械翻訳、強化された文脈理解、高度な推論と意思決定、曖昧さと不確実性のより優れた処理、創造性と多様性の向上、操作性、数学、ツールの使用、多言語翻訳、コーディング。

ブログを読む

Llama 3.1 70B

コンテンツ制作、会話型 AI、言語理解、研究開発、エンタープライズアプリケーションに最適です。レイテンシーを最適化した新しい推論機能がパブリックプレビューで利用できるようになったことで、このモデルは、広範なテキスト入力を処理する AI ソリューションの新しいパフォーマンスベンチマークとなります。これにより、アプリケーションはより迅速に応答し、長いクエリをより効率的に処理できます。

最大トークン: 128,000

言語:英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語。

微調整対応: はい

サポートされているユースケース: テキストの要約、テキストの分類、感情分析、および言語翻訳。

ブログを読む

Llama 3.1 8B

限られた計算能力とリソース、より速いトレーニング時間、エッジデバイスに最適です。

最大トークン: 12.8 万

言語:英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語。

微調整対応: はい

サポートされているユースケース: テキストの要約、テキストの分類、感情分析、および言語翻訳。

ブログを読む

Llama 3 70B

コンテンツ制作、会話型 AI、言語理解、研究開発、エンタープライズアプリケーションに最適です。 

最大トークン: 8,000

言語: 英語

微調整対応: いいえ

サポートされているユースケース: テキストの要約と正確さ、テキストの分類とニュアンス、感情分析とニュアンス推論、言語モデリング、対話システム、コード生成、指示の実行。

ブログを読む

Lama 3 8B

限られた計算能力とリソース、より速いトレーニング時間、エッジデバイスに最適です。

最大トークン: 8,000

言語: 英語

微調整対応: いいえ

サポート対象のユースケース:: テキストの要約、テキストの分類、感情分析、および言語翻訳

ブログを読む

Llama 2 70B

パラメータサイズが 70B の微調整済みモデル。言語モデリング、テキスト生成、対話システムなどの大規模なタスクに適しています。

最大トークン: 4,000

言語: 英語

微調整対応: はい

サポートされているユースケース: アシスタントのようなチャット

ブログを読む

Llama 2 13B

パラメータサイズが 13B の微調整済みモデル。テキスト分類、感情分析、言語翻訳などの小規模なタスクに適しています。

最大トークン: 4,000

言語: 英語

微調整対応: はい

サポートされているユースケース: アシスタントのようなチャット

ブログを読む

野村証券が Amazon Bedrock で Meta の Llama モデルを使用して生成 AI を民主化する

 

野村証券のエグゼクティブディレクター兼エンタープライズアーキテクトである Aniruddh Singh 氏が、Amazon Bedrock モデルと Meta の Llama モデルを使用して生成 AI を全社的に民主化するための金融機関の取り組みについて概説します。Amazon Bedrock は、Llama などの主要な基盤モデルへの重要なアクセスを提供し、シームレスな統合を可能にします。Llama は、迅速なイノベーション、透明性、バイアスガードレールに加えて、テキスト要約、コード生成、ログ分析、文書処理における堅牢なパフォーマンスなど、野村証券に大きなメリットをもたらしています。 

TaskUs が Amazon Bedrock で Meta の Llama モデルを使用してカスタマーエクスペリエンスに革命をもたらす

TaskUs は、世界で最も革新的な企業にアウトソーシングされたデジタルサービスと次世代のカスタマーエクスペリエンスを提供する大手プロバイダーであり、クライアントのブランド表現、保護、成長を支援しています。Amazon Bedrock モデルと Meta の Llama モデルを利用した革新的な TaskGPT プラットフォームにより、チームメイトは優れたサービスを提供できます。TaskUs は、Amazon Bedrock と Llama を活用して、費用対効果の高い言い換え、コンテンツ生成、理解、複雑なタスク処理を実現するツールを TaskGPT 上に構築しています。