Amazon Web Services ブログ
DeepSeek-R1 モデルが AWS で使用可能に
2024 年 12 月 2 日から 6 日の AWS re:Invent で、Amazon の CEO であるアンディー ジャシーは、Amazon が社内で約 1,000 の生成 AI アプリケーションを開発した経験から得た有益な教訓を共有しました。ジャシーは、この大規模な AI デプロイから引き出した 3 つの重要な見解を示しました。これらの見解が Amazon のエンタープライズ AI 実装へのアプローチを形作りました。
1 つ目は、生成 AI アプリケーションをスケールするにつれて、コンピューティングコストが非常に重要になるということです。人々は、より優れた料金パフォーマンスを強く望んでいます。2 つ目は、本当に優れた生成 AI アプリケーションを構築するのは、実際にはかなり難しいということです。3 つ目は、やりたいことを選ぶ自由をビルダーに与えたときに使用されるモデルが多様であるということです。これは驚くことではありません。なぜなら、私たちは同じ教訓を何度も何度も学んでいるからです。それは、世界を支配するツールは 1 つだけではないということです。
アンディーが強調したように、Amazon が提供する幅広く奥深いモデルにより、お客様は独自のニーズにとって最適な機能を正確に選択できます。AWS は、お客様のニーズと技術の進歩の両方を注意深くモニタリングすることで、厳選されたモデルのセレクションを定期的に拡大し、業界で定評のあるモデルに加えて、有望な新しいモデルも含めるようにしています。この高性能で差別化されたモデルオファリングのこの継続的な拡大は、お客様が AI イノベーションの最前線に留まるのに役立ちます。
これが中国の AI スタートアップである DeepSeek につながります。DeepSeek は 2024 年 12 月に DeepSeek-V3 をリリースし、その後、2025 年 1 月 20 日に DeepSeek-R1、6,710 億のパラメータを備えた DeepSeek-R1-Zero、および 15 億~700 億のパラメータを備えた DeepSeek-R1-Distill モデルをリリースしました。同社は 2025 年 1 月 27 日に、ビジョンベースの Janus-Pro-7B モデルを追加しました。これらのモデルは公開されており、同等のモデルよりも 90~95% 手頃な料金でコスト効率が高いと言われています。DeepSeek によると、同社のモデルは、強化学習などの革新的なトレーニング手法を通じて実現された推論機能に強みを持っています。
1 月 30 日より、Amazon Bedrock と Amazon SageMaker AI で DeepSeek-R1 モデルをデプロイできるようになりました。Amazon Bedrock は、API を通じて事前トレーニング済みの基盤モデルを迅速に統合したいチームに最適です。Amazon SageMaker AI は、高度なカスタマイズ、トレーニング、デプロイと、基盤となるインフラストラクチャへのアクセスを希望する組織に最適です。さらに、AWS Trainium と AWS Inferentia を使用して、Amazon Elastic Compute Cloud (Amazon EC2) または Amazon SageMaker AI を介して DeepSeek-R1-Distill モデルをコスト効率よくデプロイすることもできます。
AWS を利用して、インフラストラクチャ投資を最小限に抑えながら、この強力でコスト効率の高い DeepSeek-R1 モデルを使用することで、生成 AI のアイデアを構築および実験し、責任をもってスケールできます。また、セキュリティのために独自に設計された AWS のサービス上に構築することで、自信をもって生成 AI イノベーションを推進できます。Amazon Bedrock と Amazon SageMaker AI の両方のお客様が使用できる生成 AI アプリケーション用に保護レイヤーを追加するために、DeepSeek-R1 モデルのデプロイを Amazon Bedrock ガードレールと統合することを強くお勧めします。
1 月 30 日、DeepSeek-R1 モデルを AWS にデプロイする方法はいくつかあります: 1) Amazon Bedrock Marketplace (DeepSeek-R1 モデル)、2) Amazon SageMaker JumpStart (DeepSeek-R1 モデル)、3) Amazon Bedrock Custom Model Import (DeepSeek-R1-Distill モデル)、4) Amazon EC2 Trn1 インスタンス (DeepSeek-R1-Distill モデル)。
AWS で DeepSeek-R1 モデルの使用を開始するためのさまざまな方法をご紹介します。初めての AI アプリケーションを構築する場合でも、既存のソリューションをスケールする場合でも、これらの方法はチームの専門知識と要件に基づいた柔軟な開始点を提供します。
1.Amazon Bedrock Marketplace の DeepSeek-R1 モデル
Amazon Bedrock Marketplace は、Amazon Bedrock の業界をリードするモデルの現在のセレクションに加えて、100 を超える人気、新興、および専門的な FM を提供しています。単一のカタログでモデルを簡単に見つけ、モデルをサブスクライブしてから、マネージドエンドポイントにモデルをデプロイできます。
Amazon Bedrock Marketplace の DeepSeek-R1 モデルにアクセスするには、Amazon Bedrock コンソールに移動し、[基盤モデル] セクションの [モデルカタログ] を選択します。モデルプロバイダーで検索またはフィルタリングすることで、DeepSeek を迅速に見つけることができます。
モデルの機能を含むモデルの詳細ページや実装ガイドラインを確認した後、エンドポイント名を指定し、インスタンスの数を選択して、インスタンスタイプを選択することで、モデルを直接デプロイできます。
また、VPC ネットワーキング、サービスロールの許可、暗号化の設定など、DeepSeek-R1 モデルのセキュリティとインフラストラクチャの設定をカスタマイズできるようにする高度なオプションを設定することもできます。本番デプロイの場合、組織のセキュリティとコンプライアンスの要件に合わせてこれらの設定を確認する必要があります。
Amazon Bedrock ガードレールを使用すると、ユーザー入力とモデル出力を個別に評価できます。生成 AI アプリケーションで望ましくない有害なコンテンツをフィルタリングすることで、定義した一連のポリシーを使用してユーザーと DeepSeek-R1 間のインタラクションを制御できます。Amazon Bedrock Marketplace の DeepSeek-R1 モデルは、Bedrock の ApplyGuardrail API でのみ使用でき、Amazon Bedrock の外部で使用可能なカスタム FM とサードパーティー FM のユーザー入力とモデル応答を評価できます。詳細については、「Amazon Bedrock Guardrails を使用したモデルに依存しない安全対策を実装する」をお読みください。
Amazon Bedrock ガードレールは、Amazon Bedrock エージェントや Amazon Bedrock ナレッジベースなどの他の Bedrock ツールと統合して、責任ある AI ポリシーに整合した、より安全でセキュアな生成 AI アプリケーションを構築することもできます。詳細については、AWS の責任ある AI ページにアクセスしてください。
Amazon Bedrock Marketplace で DeepSeek-R1 モデルをデプロイする方法については、このステップバイステップガイドをご覧ください。詳細については、「Deploy models in Amazon Bedrock Marketplace」にアクセスしてください。
2.Amazon SageMaker JumpStart の DeepSeek-R1 モデル
Amazon SageMaker JumpStart は、FM、組み込みアルゴリズム、および数回クリックするだけでデプロイできる事前構築済みの機械学習 (ML) ソリューションを備えた ML ハブです。SageMaker JumpStart で DeepSeek-R1 をデプロイするには、SageMaker Unified Studio、SageMaker Studio、SageMaker AI コンソール で DeepSeek-R1 モデルを見つけるか、または SageMaker Python SDK を通じてプログラムを使用して見つけることができます。
Amazon SageMaker AI コンソールで、SageMaker Unified Studio または SageMaker Studio を開きます。SageMaker Studio の場合は、[JumpStart] を選択し、[すべてのパブリックモデル] ページで「DeepSeek-R1
」を検索します。
モデルを選択し、デプロイを選択して、デフォルト設定でエンドポイントを作成できます。エンドポイントが [InService] になると、そのエンドポイントにリクエストを送信して推論を行うことができます。
Amazon SageMaker AI の機能 (Amazon SageMaker Pipelines、Amazon SageMaker Debugger、コンテナログなど) を使用して、モデルのパフォーマンスと ML オペレーションのコントロールを導き出すことができます。モデルは AWS の安全な環境にデプロイされ、仮想プライベートクラウド (VPC) の制御下にあるため、データセキュリティのサポートに役立ちます。
Bedrock Marketpalce と同様に、SageMaker JumpStart の ApplyGuardrail
API を使用して、生成 AI アプリケーション用のセーフガードを DeepSeek-R1 モデルからデカップリングできます。FM を呼び出さずにガードレールを使用できるようになったため、使用するモデルにかかわらず、標準化され、徹底的にテストされたエンタープライズセーフガードをアプリケーションフローにさらに統合できるようになりました。
Amazon SageMaker JumpStart で DeepSeek-R1 をデプロイする方法については、このステップバイステップガイドをご覧ください。詳細については、「Discover SageMaker JumpStart models in SageMaker Unified Studio」または「Deploy SageMaker JumpStart models in SageMaker Studio」にアクセスしてください。
3.Amazon Bedrock カスタムモデルインポートを使用した DeepSeek-R1-Distill モデル
Amazon Bedrock カスタムモデルインポートでは、基盤となるインフラストラクチャを管理することなく、単一のサーバーレス統合 API を通じて、カスタマイズされたモデルをインポートして既存の FM とともに使用できます。Amazon Bedrock カスタムモデルインポートを使用すると、15 億~700 億のパラメータを含む DeepSeek-R1-Distill Llama モデルをインポートできます。Amazon Bedrock モデル蒸留に関する私のブログ記事でご紹介したとおり、蒸留プロセスでは、6,710 億のパラメータを持つ大規模な DeepSeek-R1 モデルを教師モデルとして使用して、その動作と推論パターンを模倣するように、より小さく効率的なモデルをトレーニングします。
これらの公開モデルを Amazon Simple Storage Service (Amazon S3) バケットまたは Amazon SageMaker Model Registry に保存した後、Amazon Bedrock コンソール内で [基盤モデル] の [インポートされたモデル] に移動し、Amazon Bedrock を通じてフルマネージドサーバーレス環境にインポートしてデプロイします。このサーバーレスアプローチは、エンタープライズグレードのセキュリティとスケーラビリティを提供しながら、インフラストラクチャ管理の必要性をなくします。
Amazon Bedrock カスタムモデルインポートを使用して DeepSeek-R1 モデルをデプロイする方法については、このステップバイステップガイドをご覧ください。詳細については、「Import a customized model into Amazon Bedrock」にアクセスしてください。
4.AWS Trainium と AWS Inferentia を使用した DeepSeek-R1-Distill モデル
AWS Deep Learning AMI (DLAMI) は、小規模な CPU のみのインスタンスから最新の高性能マルチ GPU インスタンスまで、さまざまな Amazon EC2 インスタンスで深層学習に使用できるカスタマイズされたマシンイメージを提供します。DeepSeek-R1-Distill モデルを AWS Trainuim1 または AWS Inferentia2 インスタンスにデプロイして、極めて高いコストパフォーマンスを実現できます。
使用を開始するには、Amazon EC2 コンソールに移動し、Deep Learning AMI Neuron (Ubuntu 22.04) と呼ばれる Neuron Multi Framework DLAMI を使用して trn1.32xlarge
EC2 インスタンスを起動します。
起動した EC2 インスタンスに接続したら、大規模言語モデル (LLM) を提供するオープンソースツールである vLLM をインストールし、Hugging Face から DeepSeek-R1-Distill モデルをダウンロードします。vLLM を使用してモデルをデプロイし、モデルサーバーを呼び出すことができます。
詳細については、AWS Inferentia および Trainium に DeepSeek-R1-Distill Llama モデルをデプロイする方法に関するこのステップバイステップガイドをご覧ください。
Hugging Face で DeepSeek-R1-Distill-Llama-8B または deepseek-ai/DeepSeek-R1-Distill-Llama-70B モデルカードにアクセスすることもできます。[デプロイ] を選択し、次に [Amazon SageMaker] を選択します。[AWS Inferentia および Trainium] タブから、DeepSeek-R1-Distill Llama モデルをデプロイするためのサンプルコードをコピーします。
DeepSeek-R1 のリリース以降、Amazon EC2 および Amazon Elastic Kubernetes Service (Amazon EKS) へのデプロイに関するさまざまなガイドが公開されています。確認すべき追加資料をいくつか次に示します:
- Leveraging DeepSeek-R1 with CPU and GPU options on AWS (著者: Daniel Wirjo)
- Benefits of installing DeepSeek on an Amazon EC2 instance (著者: Enrique Aguilar Martinez)
- Deploying DeepSeek Llama models on Amazon EC2 inferentia instance (著者: Irshad Chohan)
- How to deploy and fine-tune DeepSeek models on AWS (著者: Hugging Face)
- Hosting DeepSeek-R1 on Amazon EKS Auto Mode (著者: Tiago Reichert)
知っておくべきこと
知っておくべき重要な事項をいくつか次に示します。
- 料金 – DeepSeek-R1 などの公開モデルの場合、Amazon Bedrock Markeplace、Amazon SageMaker JumpStart、および Amazon EC2 のために選択した推論インスタンス時間に基づいて、インフラストラクチャ料金のみが課金されます。Bedrock カスタムモデルのインポートの場合、アクティブなカスタムモデルのコピー数に基づいて、モデル推論についてのみ、5 分単位で課金され。詳細については、Amazon Bedrock の料金、Amazon SageMaker AI の料金、および Amazon EC2 の料金のページをご覧ください。
- データセキュリティ – Amazon Bedrock と Amazon SageMaker のエンタープライズグレードのセキュリティ機能は、データとアプリケーションを安全かつプライベートにするのに役立ちます。これは、データがモデルプロバイダーと共有されず、モデルの改善にも使用されないことを意味します。これは、Amazon Bedrock と Amazon SageMaker の DeepSeek-R1 モデルなど、すべてのモデル (独自モデルおよび公開モデル) に適用されます。詳細については、「Amazon Bedrock のセキュリティとプライバシー」と「Security in Amazon SageMaker AI」にアクセスしてください。
今すぐご利用いただけます
DeepSeek-R1 は現在、Amazon Bedrock Marketplace および Amazon SageMaker JumpStart で一般提供されています。Amazon Bedrock カスタムモデルインポートと、AWS Trainum および Inferentia チップを搭載した Amazon EC2 インスタンスを使用して、DeepSeek-R1-Distill モデルを使用することもできます。
Amazon Bedrock コンソール、Amazon SageMaker AI コンソール、Amazon EC2 コンソール で DeepSeek-R1 モデルを今すぐお試しいただき、AWS re:Post for Amazon Bedrock および AWS re:Post for SageMaker AI に、または通常の AWS サポートの連絡先を通じて、フィードバックをお寄せください。
– Channy
原文はこちらです。