はじめに

最も基本的な機械学習 (ML) は、データから学び、パターンを特定し、予測を行い、その予測に基づいて行動するためのデジタルツールとサービスを提供するように設計されています。現在、ほとんどすべての人工知能 (AI) システムは ML を使用して作成されています。ML は大量のデータを使用して意思決定ロジックの作成と検証を行います。この決定ロジックは、AI「モデル」の基礎を形成します。

機械学習のサブセットとして急成長しているのが生成系 AI です。生成系 AI は、一般に基盤モデル (FM) と呼ばれる、膨大なデータセットで事前トレーニングされた大規模モデルを利用しています。生成系 AI に基づく AWS サービスには次が含まれます。

  • Amazon Bedrock (FM を使用して生成系 AI ベースのアプリケーションを構築およびスケールする方法を提供します)
  • Amazon CodeWhisperer (自然言語でのコメントと統合開発環境での以前のコードに基づいて、リアルタイムでコード候補を生成する AI コーディング支援ツール)

この意思決定ガイドは、適切な質問をし、基準とビジネス上の問題を評価して、どのサービスがニーズに最も適しているかを判断するのに役立ちます。

2 分もかからずに、Amazon CTO の 博士 Werner Vogels が、生成系 AI の仕組みと使用方法について説明します。この動画は、Vogels 博士と AWS のデータベース、分析および ML 担当副社長の Swami Sivasubramanian による、生成系 AI の全体像、誇大広告ではない理由、AWS がどのようにして大規模な言語と基盤モデルへのアクセスを民主化しているかについての長時間の話し合いの一部を取り上げたものです。

所要時間

25 分

目的

どの AWS ML サービスがお客様のニーズに最適かを判断するのをサポートすること。

レベル

初心者

最終更新日

2023 年 7 月 26 日

理解

組織が AI と ML テクノロジーを採用し続ける中、AWS の ML サービスを理解し、その中から選択することの重要性はいくら強調してもしすぎることはありません。
 
AWS は、組織が ML モデルをより迅速かつ簡単に構築、トレーニング、デプロイするのに役立つよう設計されたさまざまな ML サービスを提供しています。これらのサービスは、顧客離れの予測、不正検出、画像および音声認識など、さまざまなビジネス上の問題を解決するために利用できます。
AWS では、相互に構築する一連のテクノロジーレイヤーとして ML にアプローチしています。
 
最上位層は AI サービスで構成されます。ここで AWS は、パーソナライゼーション、予測、異常検出、音声の文字起こしなどのさまざまなユースケースに ML を組み込みます。
 
中位層は、 Amazon SageMaker などの AWS の ML サービスと深層学習 (DL) テクノロジーで構成されています。ここで AWS は ML インフラストラクチャを構築します。これにより、お客様は ML モデルの構築という差別化につながる作業のみに注力できます。
 
最下層生成系 AI サービスで構成されます。生成系 AI は、会話、ストーリー、画像、動画、音楽などの新しいコンテンツを作成できます。すべての AI と同様に、生成系 AI は ML モデルを利用しています。これは、膨大な量のデータで事前にトレーニングされた非常に大規模なモデルで、一般に基盤モデルと呼ばれています。

さらに、AWS は、高性能な ML トレーニングと推論のために、次の専用高速ハードウェアを提供しています。
 
  • Amazon EC2 P4d インスタンスは NVIDIA A100 Tensor Core GPU を搭載し、機械学習のトレーニングタスクと推論タスクの両方に適しています。AWS Trainium は、AWS が 1,000 億以上のパラメータモデルの DL トレーニング専用に構築した第 2 世代の ML アクセラレーターです。
  • AWS Inferentia2 ベースの Amazon EC2 Inf2 インスタンスは、DL 推論アプリケーションと生成系 AI アプリケーションにおいて、Amazon EC2 内で最も低いコストで高いパフォーマンスを実現するように設計されています。

検討事項

AWS の ML サービスを利用してビジネス上の問題を解決する場合、いくつかの重要な基準を検討することで、成功がより確実になります。次のセクションでは、ML サービスを選択する際に考慮すべき重要な基準のいくつかを概説します。

  • ML ライフサイクルの第一歩は、ビジネス上の問題を具体化することです。解決しようとしている問題を理解することは、適切な AWS ML サービスを選択する上で不可欠です。さまざまなサービスが種々の問題に対処するように設計されているためです。抱えているビジネス上の問題に ML が最適であるかどうかを判断することも重要です。

    ML が最適であると判断したら、まず、AWS のさまざまな目的別 AI サービス (音声、ビジョン、ドキュメントなどの分野) から選択します。

    Amazon SageMaker は、独自のモデルを構築およびトレーニングする必要があるお客様のために、フルマネージド型のインフラストラクチャを提供します。AWS では、高度にカスタマイズされた特殊な ML モデルが必要な場合のために、高度な ML フレームワークとインフラストラクチャの選択肢を幅広くご用意しています。また、AWS は生成系 AI を使用して新しいアプリケーションを構築するための一般的な基盤モデルを幅広く提供しています。

  • 解決しようとしているビジネス上の問題のために選択すべき ML アルゴリズムは、利用するデータの種類と、求める結果によって異なります。主要な AWS の各 AI/ML サービスカテゴリで、そのアルゴリズムをどのように活用できるかの概要を次に示します。

    • 専門的な AI サービス: これらのサービスは、特定のタスク向けに最適化された事前トレーニング済みのモデルであるため、ML アルゴリズムをカスタマイズするための機能は限定的です。通常、入力データや一部のパラメータをカスタマイズできますが、基盤となる ML モデルにアクセスしたり、独自のモデルを構築したりすることはできません。
    • Amazon SageMaker: このサービスは ML アルゴリズムを極めて柔軟に制御できます。SageMaker を利用して、独自のアルゴリズムやフレームワークを使用してカスタムモデルを構築したり、AWS が提供する事前構築済みのモデルやアルゴリズムを使用したりできます。これにより、ML プロセスの高度なカスタマイズと制御が可能になります。
    • 下位レベルの ML フレームワークとインフラストラクチャ: これらのサービスは、ML アルゴリズムを極めて柔軟に制御できます。これらのサービスを利用して、独自のアルゴリズムとフレームワークを使用して高度にカスタマイズされた ML モデルを構築できます。ただし、これらのサービスを利用するには ML に関するかなりの専門知識が必要であり、あらゆるユースケースに適しているとは限りません。
  • VPC でプライベートエンドポイントが必要な場合、オプションは利用している AWS の ML サービスのレイヤーによって異なります。これらのオプションには次が含まれます。

    • 専門的な AI サービス: 現在、ほとんどの専門的な AI サービスは VPC のプライベートエンドポイントをサポートしていません。ただし、Amazon Rekognition Custom Labels と Amazon Comprehend Custom には VPC エンドポイントを使用してアクセスできます。
    • 中核となる AI サービス (Amazon Translate、Amazon Transcribe、Amazon Comprehend) はすべて VPC エンドポイントをサポートしています。
    • Amazon SageMaker: SageMaker には VPC エンドポイントのサポートが組み込まれているため、トレーニング済みのモデルを VPC 内からのみアクセスできるエンドポイントとしてデプロイできます。
    • 下位レベルの ML フレームワークとインフラストラクチャ: モデルを Amazon EC2 インスタンスまたは VPC 内のコンテナにデプロイして、ネットワーク設定を完全に制御できます。
  • Amazon Rekognition や Amazon Transcribe などのより高いレベルの AI サービスは、さまざまなユースケースに対応し、速度の面でも高いパフォーマンスを発揮するように設計されています。ただし、これらのサービスは特定のレイテンシー要件を満たさない場合があります。

    下位レベルの ML フレームワークとインフラストラクチャを使用している場合は、Amazon SageMaker を活用することをお勧めします。このオプションは、フルマネージドサービスと最適化されたデプロイオプションを備えているため、通常はカスタムモデルを構築するよりも高速です。高度に最適化されたカスタムモデルは SageMaker よりも優れているかもしれませんが、構築にはかなりの専門知識とリソースが必要です。

  • AWS ML サービスの精度は、特定のユースケースと必要なカスタマイズのレベルによって異なります。Amazon Rekognition などの高レベルの AI サービスは、特定のタスクに最適化された事前トレーニング済みのモデルに基づいて構築されており、多くのユースケースで高い精度を実現します。

    場合によっては、カスタム ML モデルの構築とトレーニングのためにより柔軟でカスタマイズ可能なプラットフォームを提供する Amazon SageMaker を利用することを選択できます。独自のモデルを構築することで、事前トレーニング済みのモデルで実現可能な精度よりもさらに高い精度を実現できる場合があります。

    TensorFlow や Apache MXNet などの ML フレームワークとインフラストラクチャを使用して、特定のユースケースで可能な限り高い精度を実現する高度にカスタマイズされたモデルを構築することも選択できます。

  • AWS は、開発プロセスの各段階で責任ある AI を念頭に置いて基盤モデル (FM) を構築しています。設計、開発、デプロイ、運用を通じて、当社は次のようなさまざまな要素を考慮します。

    1. 精度 (要約が基礎となるドキュメントとどの程度一致しているか、経歴が事実に照らして正しいかどうか)
    2. 公平性 (出力が人口統計グループを同じように扱っているかどうか)
    3. 知的財産権と著作権に関する検討事項
    4. 適切な利用 (法的助言、医療診断を求めるユーザーのリクエスト、または違法行為の除外)
    5. 毒性 (ヘイトスピーチ、冒涜、侮辱)
    6. プライバシー (個人情報とお客様のプロンプトの保護)

    AWS は、これらの問題に対処するソリューションを、トレーニングデータの取得に使用されるプロセス、FM 自体、および前処理のユーザープロンプトと後処理の出力に使用されるテクノロジーに組み込んでいます。

選択

ML サービスオプションを評価する基準が明らかになったので、組織のニーズに適した AWS の ML サービスを選択する準備が整いました。

次の表は、どの ML サービスがどの状況向けに最適化されているかを示しています。これは、ユースケースに最適な AWS の ML サービスを決定するのに役立ちます。

AI/ML サービスとサポートテクノロジー
使用すべき場合
最適化の対象
閉じる

Amazon Comprehend

Amazon Comprehend では、感情分析、エンティティ認識、トピックモデリング、言語検出などの自然言語処理タスクをテキストデータで実行できます。

閉じる

Amazon Lex

Amazon Lex は、自然言語のインターフェイスでユーザーと対話できるチャットボットと音声アシスタントの構築に役立ちます。あらかじめ組み込まれたダイアログ管理、言語理解、音声認識機能を備えています。

閉じる

Amazon Polly

Amazon Polly を使用してテキストを本物そっくりの音声に変換することで、音声対応のアプリケーションやサービスを簡単に作成できます。

閉じる

Amazon Rekognition

Amazon Rekognition は、アプリケーションに画像分析と動画分析を追加できるように設計されています。画像や動画を Amazon Rekognition API に提供すると、物、人、テキスト、シーン、アクティビティが自動的に識別されます。また、不適切なコンテンツも検出できます。

閉じる

Amazon Textract

Amazon Textract を使用すると、スキャンしたドキュメント、フォーム、テーブルからテキストとデータを抽出できるため、そのようなデータの保存、分析、管理が容易になります。

閉じる

Amazon Transcribe

Amazon Transcribe を使用すると、お客様は音声録音と録画を自動的にテキストに書き起こすことができます。これにより、手作業による文字起こしに比べて時間と労力を節約できます。

閉じる

Amazon Translate

このサービスを使用すると、テキストをある言語から別の言語にリアルタイムで翻訳できます。これは、事業を複数の国で運営している場合や、母国語を話さない人とコミュニケーションをとる必要がある場合に特に役立ちます。

高度なカスタマイズや機械学習の専門知識がなくても、特定の事前構築された機能をアプリケーションに組み込む必要がある場合は、AWS が提供する中核的な AI サービスを利用できます。
使いやすさのために最適化されており、コーディング、設定、ML の専門知識はそれほど必要ありません。
閉じる

Amazon Bedrock

Amazon Bedrock は、主要な AI スタートアップや Amazon の基盤モデルを API 経由で利用できるようにするフルマネージド型サービスです。そのため、さまざまな基盤モデルの中からお客様に最適なモデルを見つけることができます。

Amazon Bedrock を利用すると、API を介して主要な AI スタートアップや Amazon の基盤モデルにアクセスできます。
柔軟性を重視して最適化されているため、さまざまな FM から選択して、ニーズに最適なモデルを見つけることができます。
閉じる

Amazon CodeWhisperer

Amazon CodeWhisperer はリアルタイムの AI コーディングコンパニオンであり、日常的または時間のかかる差別化されていないタスク用のコード作成、なじみのない API や SDK の操作、AWS API の正確かつ効果的な使用、およびファイルの読み取りと書き込み、画像処理、単体テストの作成などの他の一般的なコーディングシナリオに役立ちます。

ML を活用したコードのレコメンデーションをリアルタイムで必要とする場合は、Amazon CodeWhisperer を利用できます。
既存のコードとコメントに基づいて、リアルタイムで役立つ提案を提供するように最適化されています。
閉じる

SageMaker Autopilot

Amazon SageMaker Autopilot は、ML モデル構築のための重労働を軽減するように設計されています。表形式のデータセットを提供し、予測対象の列を選択するだけで、SageMaker Autopilot が自動的にさまざまなソリューションを探索し、最適なモデルを見つけます。その後、ワンクリックでモデルを本番に直接デプロイするか、推奨ソリューションを繰り返して、モデルの品質をさらに向上させることができます。

閉じる

SageMaker Canvas

Amazon SageMaker Canvas では、コードを記述しなくても機械学習を使用して予測を生成できます。

閉じる

SageMaker Data Wrangler

Amazon SageMaker Data Wrangler は、ML 用表形式データや画像データの集約と準備に要する時間を短縮します。SageMaker Data Wrangler を使用すると、データ準備と特徴量エンジニアリングのプロセスを簡素化し、データ選択、クレンジング、探索、視覚化、大規模処理など、データ準備ワークフローの各ステップを単一のビジュアルインターフェイスから実行できます。 

閉じる

SageMaker Ground Truth

SageMaker Ground Truth は、機械学習モデルのトレーニングと改善のためにデータにラベルを付けるマネージドサービスです。人間のアノテーターと機械学習アルゴリズムを組み合わせて使用することで、大規模データセットのラベル付けを非常に正確かつ効率的に行うことができます。SageMaker Ground Truth は、テキスト、画像、動画、音声を含む幅広いデータタイプをサポートし、他の SageMaker サービスとシームレスに統合してエンドツーエンドの機械学習ワークフローを実現します。

閉じる

SageMaker JumpStart

SageMaker JumpStart には、幅広い種類の問題に対応する事前学習済みのオープンソースモデルが用意されており、機械学習を使用開始するのに役立ちます。デプロイ前にこれらのモデルを段階的にトレーニングおよび調整できます。JumpStart には、一般的なユースケース向けのインフラストラクチャをセットアップするソリューションテンプレートや、SageMaker による機械学習用の実行可能なサンプルノートブックも用意されています。

閉じる

SageMaker Pipelines

Amazon SageMaker Pipelines を使用すると、Python SDK を使用して ML ワークフローを作成し、Amazon SageMaker Studio を使用してワークフローを可視化および管理できます。Amazon SageMaker Pipelines では、SageMaker Pipelines で作成したワークフローステップを保存して再利用できます。

閉じる

SageMaker Studio

デベロッパーが機械学習モデルを大規模に構築、トレーニング、デプロイできるようにする、完全に統合された開発環境 (IDE)。データ準備やモデルトレーニングからデプロイや監視まで、機械学習のライフサイクル全体を管理するための単一のウェブベースのインターフェイスを提供します。SageMaker Studio は Jupyter Notebook、Git、TensorFlow などの一般的なツールもサポートしており、一般的なユースケース向けに構築済みのアルゴリズム一式も提供しています。

閉じる

SageMaker Studio Lab

Amazon SageMaker Studio Lab は、事前構築済みの Jupyter Notebook を使用して機械学習を学んだり実験したりするためのクラウドベースの IDE です。これには、画像認識、自然言語処理、異常検出などのトピックを網羅したさまざまな事前構築済みノートブックが含まれています。

これらのサービスは、コア AI サービスが提供する事前構築済みの機能を超えた、よりカスタマイズされた機械学習モデルやワークフローが必要な場合に利用できます。
カスタム機械学習モデルの構築とトレーニング、複数のインスタンスまたは GPU クラスターでの大規模なトレーニング、機械学習モデルのデプロイのより詳細な制御、リアルタイム推論、およびエンドツーエンドのワークフローの構築について最適化されています。
閉じる

Apache MXNet

Apache MXNet は、Python、Scala、R などの複数のプログラミング言語をサポートするオープンソースの深層学習フレームワークです。そのスケーラビリティとスピードで知られており、ニューラルネットワークの構築とトレーニングのためのさまざまな高レベル API と、上級ユーザー向けの低レベル API を提供しています。

閉じる

Amazon SageMaker での Hugging Face

Amazon SageMaker での Hugging Face は、自然言語処理 (NLP) 用のオープンソースライブラリで、テキストデータを扱うためのトレーニング済みのさまざまなモデルとツールが用意されています。使いやすさとパフォーマンスが高いことで知られており、テキスト分類、感情分析、言語翻訳などのタスクに広く使用されています。

閉じる

Pytorch on AWS

PyTorch on AWS は、ニューラルネットワークの構築とトレーニングのための動的な計算グラフと自動微分を行うオープンソースの機械学習フレームワークです。PyTorch はその使いやすさと柔軟性で知られており、開発に貢献するデベロッパーの大規模で活発なコミュニティがあります。

閉じる

TensorFlow on AWS

TensorFlow は Google が開発したオープンソースの機械学習フレームワークで、ニューラルネットワークの構築とトレーニングに広く使用されています。スケーラビリティ、スピード、柔軟性で知られており、Python、C++、Java などのさまざまなプログラミング言語をサポートしています。TensorFlow には、画像やテキストを処理するためのさまざまな事前構築済みモデルやツールが用意されているほか、モデルをより細かく制御する必要がある上級ユーザー向けの低レベル API も用意されています。

機械学習ワークフローをさらに柔軟に制御する必要があり、基盤となるインフラストラクチャとリソースを自分で管理したい場合は、AWS が提供する ML フレームワークとインフラストラクチャを利用できます。
特定のカスタムハードウェア設定、SageMaker が提供していない深層学習フレームワークへのアクセス、データストレージと処理のより詳細な制御、およびカスタムアルゴリズムとモデルを提供するように最適化されています。
閉じる

AWS Inferentia と AWS Inferentia2

第 1 世代の AWS Inferentia アクセラレーターは、Amazon Elastic Compute Cloud (Amazon EC2) Inf1 インスタンスを駆動し、同等の Amazon EC2 インスタンスに比べて、スループットが最大 2.3 倍、推論あたりのコストが最大 70% 削減されます。AWS Inferentia2 アクセラレーターは、第 1 世代の AWS Inferentia を改良したものです。Inferentia2 は、Inferentia と比較して、最大 4 倍のスループットと最大 10 倍のレイテンシーを実現します。

閉じる

AWS Trainium

AWS Trainium は、AWS が 100 B 以上のパラメータモデルの深層学習トレーニングのために専用に構築した第 2 世代の機械学習 (ML) アクセラレーターです。Amazon Elastic Compute Cloud (EC2) Trn1 の各インスタンスは、クラウドでの深層学習 (DL) トレーニングに使用できる最大 16 の AWS Trainium アクセラレーターをデプロイします。

モデルのトレーニングコストを最小限に抑えたい場合や、クラウドで推論を実行する必要がある場合は、高速ハードウェアを利用できます。
費用対効果の高い方法で基盤モデルを大規模にデプロイできるように最適化されています。

使用

AWS の ML サービスを選択する際に適用する必要がある基準を明確に理解したので、ビジネスニーズに合うように最適化された AWS の AI/ML サービスを選択できるようになりました。

選択したサービスの利用方法や詳細をご覧いただけるよう、各サービスの仕組みを詳しく確認できる 3 つのセットのパスウェイ をご用意しました。最初のパスウェイセットには、Amazon Comprehend、Amazon Textract、Amazon Translate、Amazon Lex、Amazon Polly、Amazon Rekognition、Amazon Transcribe の利用を開始するための詳細なドキュメント、ハンズオンチュートリアル、およびリソースが用意されています。

  • Amazon Comprehend
  • Amazon Comprehend の使用を開始する

    Amazon Comprehend コンソールを使用して、非同期エンティティ検出ジョブを作成および実行します。

    チュートリアルを開始する »

    Analyze insights in text with Amazon Comprehend

    Amazon Comprehend を利用して、テキストからインサイトを分析および導出する方法を学びます。 

    チュートリアルを開始する »

    Amazon Comprehend の料金


    Amazon Comprehend の料金と例に関する情報を詳しくご覧ください。

    ガイドを詳しく見る »

  • Amazon Textract
  • Amazon Textract の使用を開始する

    Amazon Textract をフォーマットされたテキストで利用して、互いに近くにある単語や単語の行を検出する方法と、関連するテキスト、表、キーと値のペア、選択要素などの項目に対してドキュメントを分析する方法をご覧ください。

    ガイドを詳しく見る »

    Extract text and structured data with Amazon Textract

    Amazon Textract を利用して、ドキュメントからテキストと構造化データを抽出する方法をご覧ください。




    チュートリアルを開始する »

    AWS Power Hour: Machine Learning

    このエピソードでは Amazon Textract について詳しく説明し、AWS マネジメントコンソールに時間を割き、サービス API を最大限に活用する方法を理解するのに役立つコードサンプルを確認します。


    動画を視聴する »

  • Amazon Translate
  • コンソールを使って Amazon Translate の使用を開始する

    Amazon Translate の利用を開始する最も簡単な方法は、コンソールで何らかのテキストを翻訳してみることです。コンソールを使用して最大 10,000 文字まで翻訳する方法をご覧ください。

    ガイドを詳しく見る »

    Translate Text Between Languages in the Cloud

    本チュートリアルの例では、インターナショナルな旅行カバン製造会社の社員として、ローカルマーケットの言語であるフランス語のレビューにおいて、自社製品に関して顧客が述べていることを理解する必要があります。 

    チュートリアルを開始する »

    Amazon Translate の料金


    Amazon Translate の料金 (12 か月間にわたって 1 か月あたり 200 万文字を提供する無料利用枠を含む) を詳しくご覧ください。


    ガイドを詳しく見る »

    カスタマイズ可能な翻訳ソリューションで多言語ワークフローを加速する

    Amazon Translate と他の AWS サービスを利用して、カスタマイズ機能を備えた統合翻訳ソリューションを構築する方法を詳しくご覧ください。

    ブログを読む »

  • Amazon Lex
  • Amazon Lex V2 デベロッパーガイド


    Amazon Lex V2 の開始方法、仕組み、料金に関する情報について詳しくご覧ください。


    ガイドを詳しく見る »

    Amazon Lex のご紹介


    Amazon Lex 会話型サービスと、ボットを作成してさまざまなチャットサービスにデプロイする方法を示す例をご紹介します。

    コースを受講する » (サインインが必要です)

    Exploring Generative AI in conversational experiences

    会話エクスペリエンスにおける生成系 AI の利用について詳しくご覧ください。


    ブログを読む »

  • Amazon Polly
  • What is Amazon Polly?



    テキストを本物そっくりの音声に変換するクラウドサービスの概要を詳しくご覧ください。このサービスはアプリケーションの開発に利用して、カスタマーエンゲージメントとアクセシビリティを改善できます。

    ガイドを詳しく見る »

    Highlight text as it’s being spoken using Amazon Polly


    読み上げられているテキストを強調表示して、書籍、ウェブサイト、ブログ、その他のデジタルエクスペリエンスで音声に視覚的な機能を追加する方法をご紹介します。

    ブログを読む »

    Create audio for content in multiple languages with the same TTS voice persona in Amazon Polly

    Neural Text-to-Speech (NTTS) について説明し、サポートされている言語でさまざまな話者を提供する、幅広い音声ポートフォリオがどのように役立つのかをご紹介します。

    ブログを読む »

  • Amazon Rekognition
  • What is Amazon Rekognition?



    このサービスを利用して画像と動画の分析をアプリケーションに追加する方法を詳しくご覧ください。 

    ガイドを詳しく見る »

    Hands-on Rekognition: Automated Image and Video Analysis

    ストリーミング動画で顔認識がどのように機能するかを、コード例や重要なポイントとともに自分のペースでご覧ください。 

    チュートリアルを開始する »

    Amazon Rekognition のよくある質問



    Amazon Rekognition の基礎知識と、それが深層学習の改善とアプリケーションの視覚的分析にどのように役立つかをご覧ください。

    よくある質問を読む »

  • Amazon Transcribe
  • Transcribe

    Amazon Transcribe とは


    ML を使用して音声をテキストに変換する AWS 自動音声認識サービスについて詳しくご覧ください。このサービスをスタンドアロンの文字起こしとして利用する方法や、任意のアプリケーションに音声からテキストへの変換機能を追加する方法をご覧ください。

    ガイドを詳しく見る »

    Amazon Transcribe の料金


    カスタム言語モデルのオプションや Amazon Transcribe の無料利用枠など、AWS の従量制料金の文字起こしについてご紹介します。


    ガイドを詳しく見る »

    Create an audio transcript with Amazon Transcribe

    ニーズに合わせてテストするための実際のユースケースのシナリオを用いて、録音された音声ファイルのテキストトランスクリプトを作成するために Amazon Transcribe を利用する方法をご覧ください。

    チュートリアルを開始する »

    Build an Amazon Transcribe streaming app

    ライブ音声をリアルタイムで録音、文字起こし、翻訳し、結果を直接 E メールで送信するアプリケーションを構築する方法をご覧ください。

    ガイドを詳しく見る »

2 番目の AI/ML AWS サービスパスウェイセットには、Amazon SageMaker ファミリーのサービスを使い始めるための詳細なドキュメント、ハンズオンチュートリアル、およびリソースが用意されています。

  • SageMaker
  • How Amazon SageMaker works

    機械学習の概要と SageMaker の仕組みを詳しくご覧ください。

    ガイドを詳しく見る »

    Amazon SageMaker の使用を開始する

    Amazon SageMaker ドメインに参加する方法をご覧ください。参加することで、Amazon SageMaker Studio と RStudio on SageMaker にアクセスできるようになります。 

    ガイドを詳しく見る »

    Apache Spark と Amazon SageMaker を使用する

    データの前処理に Apache Spark を利用し、モデルのトレーニングとホスティングに SageMaker を利用する方法をご覧ください。 

    ガイドを詳しく見る »

    Use Docker containers to build models

    Amazon SageMaker が、構築タスクとランタイムタスクに Docker コンテナを活用している方法を詳しくご覧ください。組み込みアルゴリズム用の構築済み Docker イメージと、トレーニングおよび推論に使用されるサポート対象の深層学習フレームワークをデプロイする方法をご覧ください。

    ガイドを詳しく見る »
     

    Machine learning frameworks and languages

    Amazon SageMaker Python SDK を利用して SageMaker の利用を開始する方法をご覧ください。



    ガイドを詳しく見る »

  • SageMaker Autopilot
  • Create an Amazon SageMaker Autopilot experiment for tabular data

    表形式のデータセットでさまざまなモデル候補を探索、前処理、トレーニングするために、Amazon SageMaker Autopilot の実験を作成する方法をご覧ください。

    ガイドを詳しく見る »

    Automatically create machine learning models


    Amazon SageMaker Autopilot を利用して、ML モデルを自動的に構築、トレーニング、調整し、モデルをデプロイして予測を行う方法をご覧ください。

    チュートリアルを開始する »

    サンプルノートブックを使用して、Amazon SageMaker Autopilot によるモデリングを詳しく知る

    ダイレクトマーケティング、顧客離れの予測、および独自のデータ処理コードを Amazon SageMaker Autopilot に組み込む方法に関するサンプルノートブックを詳しくご覧ください。

    ガイドを詳しく見る »

  • SageMaker Canvas
  • Get started using Amazon SageMaker Canvas


    SageMaker Canvas の利用を開始する方法をご覧ください。

    ガイドを詳しく見る »

    コードを書かずに機械学習の予測を生成する

    このチュートリアルでは、Amazon SageMaker Canvas を利用して ML モデルを構築し、コードを一行も記述することなく正確な予測を生成する方法を説明します。

    チュートリアルを開始する »

    Dive deeper into SageMaker Canvas


    SageMaker Canvas と、その視覚的なノーコードの ML 機能について詳しくご覧ください。

    ブログを読む »

    Amazon SageMaker Canvas を利用して初めての ML モデルを作成する

    Amazon SageMaker Canvas を利用して、新製品やサービスの E メールキャンペーンに基づいて顧客維持率を評価する ML モデルを作成する方法をご覧ください。

    ラボを開始する »

  • SageMaker Data Wrangler
  • Amazon SageMaker Data Wrangler の使用を開始する

    SageMaker Data Wrangler の詳しい設定方法と、既存のサンプルデータセットを使用したチュートリアルをご覧ください。


    ガイドを詳しく見る »

    最小限のコードで機械学習のためのトレーニングデータを準備する

    Amazon SageMaker Data Wrangler を利用して ML 用のデータを準備する方法をご覧ください。



    チュートリアルを開始する »

    SageMaker Data Wrangler を探求するワークショップ

    データセットに適切な分析タイプを適用して異常や問題を検出する方法、導出された結果/インサイトに基づいてデータセットの変換過程で是正措置を策定する方法、SageMaker Data Wrangler が提供するクイックモデリングオプションを使用して変換の正しい選択と順序をテストする方法をご覧ください。

    ワークショップを開始する »

  • SageMaker Ground Truth/Ground Truth Plus
  • Amazon Groud Truth の使用を開始する

    コンソールを使用してラベリングジョブを作成し、公共または民間のワークフォースを割り当て、ラベリングジョブをワークフォースに送信する方法を詳しくご覧ください。ラベリングジョブの進行状況をモニタリングする方法をご覧ください。

    ガイドを詳しく見る »

    Label Training Data for Machine Learning

    Amazon SageMaker Ground Truth でラベリングジョブを設定して、ML モデル用のトレーニングデータに注釈を付ける方法をご覧ください。

    チュートリアルを開始する »

    Amazon Ground Truth Plus の使用を開始する

    Amazon SageMaker Ground Truth Plus プロジェクトを開始し、ラベルを確認して、SageMaker Ground Truth Plus の前提条件を満たすために必要なステップを完了する方法を詳しくご覧ください。 

    ガイドを詳しく見る »

    Amazon Ground Truth の使用を開始する

    SageMaker Ground Truth コンソールを使用して、数分でデータにラベリングする方法をご覧ください。

    動画を視聴する »

    Amazon SageMaker Ground Truth Plus – create training datasets without code or in-house resources

    エキスパートによる質の高いトレーニングデータセットを迅速に提供し、コストを最大 40% 削減するターンキーサービスである Ground Truth Plus についてご覧ください。

    ブログを読む »

  • SageMaker JumpStart
  • SageMaker JumpStart を利用して機械学習を開始する

    一般的なユースケース向けにインフラストラクチャを設定する SageMaker JumpStart ソリューションテンプレートや、SageMaker を利用した機械学習向けの実行可能なサンプルノートブックを詳しくご覧ください。

    ガイドを詳しく見る »

    Amazon SageMaker JumpStart を使用して機械学習プロジェクトをすばやく始める

    Amazon SageMaker JumpStart によって提供される事前トレーニング済みのモデルと事前構築済みのソリューションを利用して、ML プロジェクトを迅速に追跡する方法をご覧ください。その後、Amazon SageMaker Studio ノートブックを使用して選択したモデルをデプロイできます。

    チュートリアルを開始する »

    この Immersion Day ワークショップで Amazon SageMaker JumpStart を実践する

    Amazon SageMaker Data Wrangler、Autopilot、Jumpstart のローコード ML 機能によって、より迅速な実験と、高精度モデルの本番環境への導入がどのように容易になるかをご覧ください。

    ワークショップを開始する »

  • SageMaker Pipelines
  • Amazon SageMaker Pipelines の使用を開始する


    SageMaker のジョブを管理およびデプロイするエンドツーエンドのワークフローを作成する方法をご覧ください。SageMaker Pipelines には SageMaker Python SDK が統合されているため、Python ベースのインターフェイスを使用してパイプラインの各ステップを構築できます。

    ガイドを詳しく見る »

    Automate machine learning workflows


    Amazon SageMaker Pipelines、Amazon SageMaker Model Registry、Amazon SageMaker Clarify を利用して、エンドツーエンドの機械学習 (ML) ワークフローを作成および自動化する方法をご覧ください。

    チュートリアルを開始する »

    How to create fully automated ML workflows with Amazon SageMaker Pipelines

    あらゆるデベロッパーとデータサイエンティストがアクセスできるように設計された世界初の ML CI/CD サービスである Amazon SageMaker Pipelines についてご覧ください。SageMaker パイプラインは CI/CD パイプラインを ML で使用できるようにし、必要なコーディング時間を短縮します。

    動画を視聴する »

  • SageMaker Studio
  • Build and train a machine learning model locally

    Amazon SageMaker Studio ノートブック内で ML モデルをローカルに構築してトレーニングする方法をご覧ください。

    チュートリアルを開始する »

    SageMaker Studio integration with EMR workshop

    分散処理を大規模に活用してデータを準備し、その後に機械学習モデルをトレーニングする方法をご覧ください。 

    ワークショップを開始する »

3 番目の AI/ML AWS サービスパスウェイセットには、Amazon Bedrock、Amazon CodeWhisperer、AWS Trainium、AWS Inferentia、Amazon Titan を使い始めるための詳細なドキュメント、ハンズオンチュートリアル、およびリソースが用意されています。

  • Amazon Bedrock
  • Overview of Amazon Bedrock

    Amazon Bedrock が、主要な AI スタートアップと Amazon からの基盤モデルを API 経由で利用できるようにする方法を理解しましょう。理解することで、さまざまな FM から選択して、ユースケースに最適なモデルを見つけることができるようになります。 

    ガイドを詳しく見る »

    Announcing New Tools for Building with Generative AI on AWS

    Amazon Bedrock の開発の背景と、AWS の AI と ML に対するより広範なアプローチとの適合性、AWS の生成系 AI サービスの潜在的な用途の概要について理解しましょう。

    ブログを読む »

    生成系 AI の謎を解き明かす

    この動画では、Amazon CTO である Werner Vogels 博士と、AWS のデータベース、分析、ML 担当 VP である Swami Sivasubramanian が、生成系 AI の全体像、誇張ではない理由、AWS がどのようにして大規模な言語と基盤モデルへのアクセスを民主化しているかについて語ります。

    動画を視聴する »

  • Amazon CodeWhisperer
  • What is Amazon CodeWhisperer?

    CodeWhisperer が、日常的な、または時間のかかる差別化につながらないタスク用のコード作成、なじみのない API や SDK の操作、AWS API の正確かつ効果的な利用のほか、ファイルの読み取りと書き込み、画像処理、ユニットテストの作成などの一般的なコーディングシナリオに役立つように設計されているようすを理解しましょう。

    ガイドを詳しく見る »

    Amazon CodeWhisperer の使用を開始する

    IDE として使用可能な AWS Toolkit for JetBrains、AWS Toolkit for Visual Studio Code、Lambda、AWS Cloud9 の 4 つのそれぞれで利用できるように CodeWhisperer を設定する方法を説明します。

    ガイドを詳しく見る »

    Amazon CodeWhisperer Workshop

    画像認識用の本格的なイベント駆動型サーバーレスアプリケーションを構築する方法をご覧ください。Amazon CodeWhisperer を利用することで、AWS Lambda 上で実行される独自のコードを記述し、Amazon Rekognition、Amazon DynamoDB、Amazon SNS、Amazon SQS、Amazon S3、サードパーティー HTTP API と相互にやり取りして画像認識を実行できます。

    ワークショップを開始する »

  • AWS Trainium
  • Scaling distributed training with AWS Trainium and Amazon EKS

    AWS Trainium を搭載した Amazon EC2 Trn1 インスタンスの一般提供からメリットを得る方法をご覧ください。AWS Trainium は、クラウドで深層学習モデルをトレーニングするための高性能で費用対効果が高く、非常にスケーラブルなプラットフォームを提供するように最適化された、目的別 ML アクセラレーターです。 

    ブログを読む »

    AWS Trainium の概要

    AWS Trainium についてご覧ください。AWS Trainium は、AWS が 1,000 億以上のパラメータモデルの深層学習トレーニング専用に構築した第 2 世代の機械学習 (ML) アクセラレーターです。各 Amazon Elastic Compute Cloud (EC2) Trn1 インスタンスは、最大 16 個の AWS Trainium アクセラレーターをデプロイし、クラウドでの深層学習 (DL) トレーニングのための高性能かつ低コストのソリューションを提供します。

    ガイドを詳しく見る »

    Recommended Trainium Instances

    深層学習モデル推論ワークロード向けに高いパフォーマンスとコスト効率を提供するために、AWS Trainium インスタンスがどのように設計されているかを詳しくご覧ください。



    ガイドを詳しく見る »

  • AWS Inferentia
  • AWS Inferentia の概要

    深層学習 (DL) 推論アプリケーション向けに極めて低いコストで高いパフォーマンスを実現するために、AWS によってアクセラレーターがどのように設計されているかを理解しましょう。 

    ガイドを詳しく見る  »

    AWS Inferentia2 builds on AWS Inferentia1 by delivering 4x higher throughput and 10x lower latency

    AWS Inferentia2 が何に向けて最適化されているかを理解し、LLM と生成系 AI 推論のコストを削減しながら、より高いパフォーマンスを実現するためにどのように一から設計されたかを詳しくご覧ください。

    ブログを読む »

    AWS Inferentia を使用した機械学習推論

    Amazon EC2 Inf1 インスタンスを実行するノードで Amazon EKS クラスターを作成し、(オプションで) サンプルアプリケーションをデプロイする方法を説明します。Amazon EC2 Inf1 インスタンスには AWS Inferentia チップが搭載されています。このチップは、クラウドにおいて、高性能で低コストの推論を提供するように AWS によって構築されています。

    ガイドを詳しく見る »

  • Amazon Titan
  • Amazon Titan の概要

    Amazon Titan FM がどのように大規模なデータセットで事前にトレーニングされ、強力な汎用モデルとなっているかを詳しくご覧ください。それらのモデルをそのまま使用する方法、または大量のデータに注釈を付けることなく、特定のタスクに合わせて独自のデータを使用してプライベートにカスタマイズする方法をご覧ください。

    ガイドを詳しく見る »

詳しく見る

アーキテクチャ図

これらのリファレンスアーキテクチャ図には、使用中の AWS AI および ML サービスの例が示されています。

アーキテクチャ図を詳しく見る »

ホワイトペーパー

AI/ML サービスの使用を開始し、その選択と使用に関するベストプラクティスを習得するのに役立つホワイトペーパーをご覧ください。

ホワイトペーパーを読む »

AWS ソリューション

AI と ML サービスの一般的なユースケースに関する、精査されたソリューションとアーキテクチャガイダンスを詳しくご覧ください。

ソリューションを詳しく見る »

このページはお役に立ちましたか?