投稿日: Mar 1, 2024

Mistral AI の Mixtral 8x7B および Mistral 7B 基盤モデルが Amazon Bedrock で一般提供を開始しました。 Mistral AI モデルは現在 Amazon Bedrock で提供されており、AI21 Labs、Anthropic、Cohere、Meta、Stability AI、Amazon など、その他の主要な AI 企業で利用されています。Amazon Bedrock では、単一の API で利用できる高性能モデルの選択肢がさらに増えました。そのため、お客様はセキュリティ、プライバシー、責任ある AI を備えた生成 AI アプリケーションを構築するための最適なモデルを選択できます。

Mistral AI の Mixtral 8x7B モデルと Mistral 7B モデルは、公開されているモデルを最先端のパフォーマンスに引き上げます。Mixtral 8x7B は人気のある高品質のスパース混合エキスパート (MoE) モデルで、テキスト要約、質問と回答、テキスト分類、テキスト補完、コード生成に最適です。Mistral 7B は Mistral の最初の基盤モデルです。自然なコーディング機能で英語のテキスト生成タスクに対応しているほか、カスタムデータを使用して、特定のタスクに対応するようすばやく簡単に微調整できます。このモデルはメモリ要件が低く、サイズに対してスループットが高いため、低レイテンシーに最適化されています。Mistral 7B は、テキストの要約と分類からテキスト補完およびコード補完まで、さまざまなユースケースに対応する強力なモデルです。

Amazon Bedrock の Mistral AI Mixtral 8x7B モデルと Mistral 7B モデルは、米国西部 (オレゴン) AWS リージョンでご利用いただけます。 詳細については、AWS ニュースのこのリリースに関するブログ記事Amazon Bedrock での Mistral AI に関する製品ページ、およびドキュメントをご覧ください。Amazon Bedrock で Mistral AI を使い始めるには、Amazon Bedrock コンソールにアクセスしてください。