Amazon Web Services ブログ
Mistral AI モデルが Amazon Bedrock で間もなく利用可能に
フランスに本拠を置く AI 企業である Mistral AI は、公開されているモデルを最先端のパフォーマンスに高めるというミッションを掲げています。同社は、チャットボットからコード生成まで、さまざまなタスクに使用できる高速かつ安全な大規模言語モデル (LLM) の作成を専門としています。
2 つの高性能 Mistral AI モデルである Mistral 7B と Mixtral 8x7B がまもなく Amazon Bedrock で利用可能になることをお知らせします。AWS は、AI21 Labs、Anthropic、Cohere、Meta、Stability AI、Amazon などの他の大手 AI 企業と並ぶ 7 番目の基盤モデルプロバイダーとして Mistral AI を Amazon Bedrock で利用できるようにします。これらの 2 つの Mistral AI モデルを使用すると、Amazon Bedrock を利用して生成 AI アプリケーションを構築およびスケールするためのユースケースに最適な高性能 LLM を柔軟に選択できます。
Mistral AI モデルの概要
非常に期待されているこれらの 2 つの Mistral AI モデルの概要を次に示します。
- Mistral 7B は、Mistral AI の最初の基盤モデルであり、自然なコーディング機能で英語のテキスト生成タスクをサポートします。低レイテンシーを実現するために最適化されており、サイズの割にメモリ要件は低く、スループットは大きいです。このモデルは強力で、テキストの要約や分類から、テキスト補完やコード補完まで、さまざまなユースケースをサポートします。
- Mixtral 8x7B は、テキストの要約、質疑応答、テキストの分類、テキスト補完、コード生成に最適な、人気のある高品質の Sparse Mixture-of-Experts (MoE) モデルです。
適切な基盤モデルを選択することが、成功を収めるアプリケーションを構築するための鍵となります。Mistral AI モデルがお客様のユースケースに適している理由を示すいくつかの利点を見てみましょう。
- コストとパフォーマンスのバランス – Mistral AI モデルの顕著な利点の 1 つは、コストとパフォーマンスの驚くべきバランスが実現されているということです。Sparse MoE を使用することで、コストをコントロールしながら、これらのモデルを効率的かつスケーラブルにして、手頃な料金で利用できるようになります。
- 高速な推論速度 – Mistral AI モデルの推論速度は非常に高速で、低レイテンシーを実現するために最適化されています。また、このモデルは、サイズの割にメモリ要件は低く、スループットは大きいです。この機能は、本番ユースケースをスケールする場合に最も重要です。
- 透明性と信頼性 – Mistral AI モデルは透明性が高く、カスタマイズ可能です。これにより、組織は厳しい規制要件を満たすことができます。
- 幅広いユーザーがアクセス可能 – Mistral AI モデルには誰でもアクセスできます。これは、あらゆる規模の組織が生成 AI 機能をアプリケーションに統合するのに役立ちます。
近日リリース予定
Mistral AI の一般公開モデルが間もなく Amazon Bedrock で利用可能になります。いつものように、このブログをサブスクライブしていただくことで、これらのモデルが Amazon Bedrock でいつ利用可能になるのかを誰よりも早く知ることができます。
詳細はこちら
引き続きご期待ください。
– Donnie
原文はこちらです。