Amazon Web Services ブログ

Category: Artificial Intelligence

Amazon SageMaker 上で AWS Inferentia2 と AWS Trainium を使って、低コストで高性能な生成系 AI 推論を実現

2023年5月4日、Amazon SageMaker が AWS Inferentia2 (ml.inf2) と AWS Trainium (ml.trn1) ベースの SageMaker インスタンスをサポートして、リアルタイムおよび非同期推論のための生成系 AI モデルをホストすることを発表しました。この記事では、大規模モデル推論 (LMI) コンテナを活用して、SageMaker を使用して AWS Inferentia2 に大規模な言語モデルをデプロイするプロセスを示します。

make_transfer_use

Amazon Kendra を用いた社内ナレッジ共有の推進

本稿では、「多くの企業が抱えるナレッジ共有の悩みを Amazon Kendra でどのように解消したのか?」をテーマに、株式会社ブレインパッドの取り組みを、「企業が抱えるナレッジ共有の悩みとは?」「なぜ Amazon Kendra を採用したのか?」「どのように実装したのか?」「便利なツールがあっても使われなければ意味がない、普及の壁をどう乗り越えたのか?」という4つのポイントでまとめています。

大規模言語モデルを Amazon SageMaker 上で学習する際のベストプラクティス

Amazon SageMaker Training で 大規模言語モデル(LLM) の学習を成功させるための Tips とベストプラクティスについて深く掘り下げます。本記事では、LLM 学習ワークロードのすべてのフェーズをカバーし、関連するインフラ機能とベストプラクティスについて説明しています。これらのベストプラクティスにより、SageMaker 上で数千万から数億のパラメータ規模の LLM をトレーニングすることができます。

大規模モデル推論コンテナを使って AWS Inferentia2 に大規模言語モデルをデプロイ

本稿では、AWS Inferentia2 上で大規模言語モデルをデプロイする方法を解説します。ここでは、AWS Neuron ソフトウェア開発キット (SDK) を使って Inferentia デバイスにアクセスし、その高いパフォーマンスの恩恵を受けます。そして、モデルサービングのソリューションとして、Deep Java Library (DJLServing) を搭載した大規模モデル推論コンテナを使用します。Amazon Elastic Compute Cloud (Amazon EC2) の inf2.48xlarge インスタンスに OPT-13B モデルをデプロイし、これら3つのレイヤーがどのように連携しているかをデモンストレーションします。

Building with Generative AI on AWS

AWS で生成系 AI を使用した構築のための新ツールを発表

本日 AWS は Amazon Bedrock を発表しました。これは AI21 Labs、Anthropic, Stability AI および Amazon の基盤モデルを API で利用できるようにする新しいサービスです。Bedrock はお客様が基盤モデルを使って生成系AIベースのアプリケーションを構築・拡張する最も簡単な手法であり、すべてのアプリケーション開発者が利用できます。また、選択できるモデルの一つとして、Amazon が開発している基盤モデルである Amazon Titan を本日発表しました。