Amazon Web Services ブログ

Category: Generative AI

AWS による Jupyter の 生成系 AI の民主化とノートブック実行のスケールのための新しい拡張機能を発表

AWS はデータサイエンティストや機械学習エンジニアにとって欠かせない Jupyter を開発する Project Jupyter のスポンサー及びコントリビューターとして積極的に活動しています。AWS は 2023/5/10 の JupyterCon において、Jupyter ユーザーの体験を向上させ開発の生産性を高める新しいツールを発表しました。生成系 AI に関する Jupyter 拡張機能と機械学習モデルを大規模に開発、学習、デプロイするための Jupyter 拡張機能を発表し、これらのツールは全てオープンソースで Jupyter を実行している場所であればどこでも使用することができます。

高精度な生成系 AI アプリケーションを Amazon Kendra、LangChain、大規模言語モデルを使って作る

Amazon Kendra の機能と LLM の機能を組み合わせて RAG ワークフローを実装し、エンタープライズコンテンツ上で会話型のエクスペリエンスを提供する最先端の GenAI アプリケーションを作成する方法を示します。

Amazon SageMaker 上で AWS Inferentia2 と AWS Trainium を使って、低コストで高性能な生成系 AI 推論を実現

2023年5月4日、Amazon SageMaker が AWS Inferentia2 (ml.inf2) と AWS Trainium (ml.trn1) ベースの SageMaker インスタンスをサポートして、リアルタイムおよび非同期推論のための生成系 AI モデルをホストすることを発表しました。この記事では、大規模モデル推論 (LMI) コンテナを活用して、SageMaker を使用して AWS Inferentia2 に大規模な言語モデルをデプロイするプロセスを示します。

大規模言語モデルを Amazon SageMaker 上で学習する際のベストプラクティス

Amazon SageMaker Training で 大規模言語モデル(LLM) の学習を成功させるための Tips とベストプラクティスについて深く掘り下げます。本記事では、LLM 学習ワークロードのすべてのフェーズをカバーし、関連するインフラ機能とベストプラクティスについて説明しています。これらのベストプラクティスにより、SageMaker 上で数千万から数億のパラメータ規模の LLM をトレーニングすることができます。

Building with Generative AI on AWS

AWS で生成系 AI を使用した構築のための新ツールを発表

本日 AWS は Amazon Bedrock を発表しました。これは AI21 Labs、Anthropic, Stability AI および Amazon の基盤モデルを API で利用できるようにする新しいサービスです。Bedrock はお客様が基盤モデルを使って生成系AIベースのアプリケーションを構築・拡張する最も簡単な手法であり、すべてのアプリケーション開発者が利用できます。また、選択できるモデルの一つとして、Amazon が開発している基盤モデルである Amazon Titan を本日発表しました。