Amazon Web Services ブログ

Category: Artificial Intelligence

大規模言語モデルを Amazon SageMaker 上で学習する際のベストプラクティス

Amazon SageMaker Training で 大規模言語モデル(LLM) の学習を成功させるための Tips とベストプラクティスについて深く掘り下げます。本記事では、LLM 学習ワークロードのすべてのフェーズをカバーし、関連するインフラ機能とベストプラクティスについて説明しています。これらのベストプラクティスにより、SageMaker 上で数千万から数億のパラメータ規模の LLM をトレーニングすることができます。

大規模モデル推論コンテナを使って AWS Inferentia2 に大規模言語モデルをデプロイ

本稿では、AWS Inferentia2 上で大規模言語モデルをデプロイする方法を解説します。ここでは、AWS Neuron ソフトウェア開発キット (SDK) を使って Inferentia デバイスにアクセスし、その高いパフォーマンスの恩恵を受けます。そして、モデルサービングのソリューションとして、Deep Java Library (DJLServing) を搭載した大規模モデル推論コンテナを使用します。Amazon Elastic Compute Cloud (Amazon EC2) の inf2.48xlarge インスタンスに OPT-13B モデルをデプロイし、これら3つのレイヤーがどのように連携しているかをデモンストレーションします。

Building with Generative AI on AWS

AWS で生成系 AI を使用した構築のための新ツールを発表

本日 AWS は Amazon Bedrock を発表しました。これは AI21 Labs、Anthropic, Stability AI および Amazon の基盤モデルを API で利用できるようにする新しいサービスです。Bedrock はお客様が基盤モデルを使って生成系AIベースのアプリケーションを構築・拡張する最も簡単な手法であり、すべてのアプリケーション開発者が利用できます。また、選択できるモデルの一つとして、Amazon が開発している基盤モデルである Amazon Titan を本日発表しました。

AWS Step Functionsを使用してオンプレミスの機械学習コードを Amazon SageMaker に取り込む

この記事では、オンプレミス環境で作成された機械学習コードを、最小限のリファクタリングで AWS 環境に移行し、またAWS内の機械学習サービス Amazon SageMaker の機能を最大限活用する方法について解説します。
非効率であることは分かりつつも修正の時間を取ることができないようなケースにおいて、Amazon SageMaker と AWS Step Functions を用いてデータサイエンティストと MLOps エンジニアという 2 人の開発者がどのようにリフトアンドシフトするのかを説明していきます。

文書理解ソリューションの導入と使用

文書理解ソリューション(Document Understanding Solution; DUS) を使用すると、エンタープライズ検索、ドキュメントのデジタル化、検出、および選択した情報の抽出と編集に AWS AI の機能を使用できます。AWS が提供する Intelligent Document Processing サービスの一部であるこのソリューションは、AWS AI (人工知能) サービスを使用してビジネス上の問題を解決します。