Amazon Web Services ブログ
Category: Artificial Intelligence
AWS Summit Tokyo 製造業向け展示速報
みなさん、こんにちは!製造業のお客様を中心に技術支援を行っているソリューションアーキテクトの山田です。 4 年 […]
AWS Week in Review: 生成系 AI と Amazon EC2、Trn1n、Inf2、CodeWhisperer 向けの新サービスが現在一般公開中 – 2023 年 4 月 17 日
このブログ記事のタイトルは、ほぼ「AWS AI/ML Week in Review」と言えるかもしれません。 […]
大規模言語モデルを Amazon SageMaker 上で学習する際のベストプラクティス
Amazon SageMaker Training で 大規模言語モデル(LLM) の学習を成功させるための Tips とベストプラクティスについて深く掘り下げます。本記事では、LLM 学習ワークロードのすべてのフェーズをカバーし、関連するインフラ機能とベストプラクティスについて説明しています。これらのベストプラクティスにより、SageMaker 上で数千万から数億のパラメータ規模の LLM をトレーニングすることができます。
ソースコードを自動生成する Amazon CodeWhisperer でアクセンチュアが開発生産性を向上させた方法
Amazon CodeWhisperer は、統合開発環境 (IDE) で記載されたコードやコメントから提案コ […]
大規模モデル推論コンテナを使って AWS Inferentia2 に大規模言語モデルをデプロイ
本稿では、AWS Inferentia2 上で大規模言語モデルをデプロイする方法を解説します。ここでは、AWS Neuron ソフトウェア開発キット (SDK) を使って Inferentia デバイスにアクセスし、その高いパフォーマンスの恩恵を受けます。そして、モデルサービングのソリューションとして、Deep Java Library (DJLServing) を搭載した大規模モデル推論コンテナを使用します。Amazon Elastic Compute Cloud (Amazon EC2) の inf2.48xlarge インスタンスに OPT-13B モデルをデプロイし、これら3つのレイヤーがどのように連携しているかをデモンストレーションします。
低コストで高性能な生成系 AI 推論用の Amazon EC2 Inf2 インスタンスが一般公開されました
深層学習 (DL) のイノベーション、特に大規模言語モデル (LLM) の急速な成長は、業界を席巻しました。D […]
個人で無料で使用できる Amazon CodeWhisperer が一般公開されました
現在、リアルタイム AI コーディングのコンパニオンである Amazon CodeWhisperer が一般公 […]
AWS で生成系 AI を使用した構築のための新ツールを発表
本日 AWS は Amazon Bedrock を発表しました。これは AI21 Labs、Anthropic, Stability AI および Amazon の基盤モデルを API で利用できるようにする新しいサービスです。Bedrock はお客様が基盤モデルを使って生成系AIベースのアプリケーションを構築・拡張する最も簡単な手法であり、すべてのアプリケーション開発者が利用できます。また、選択できるモデルの一つとして、Amazon が開発している基盤モデルである Amazon Titan を本日発表しました。
Amazon Kendra Box Connector を始める
この記事では、新しい Amazon Kendra Box コネクタを設定して、Box Enterprise リポジトリからコンテンツを選択的にインデックスする方法を紹介します。
AWS Step Functionsを使用してオンプレミスの機械学習コードを Amazon SageMaker に取り込む
この記事では、オンプレミス環境で作成された機械学習コードを、最小限のリファクタリングで AWS 環境に移行し、またAWS内の機械学習サービス Amazon SageMaker の機能を最大限活用する方法について解説します。
非効率であることは分かりつつも修正の時間を取ることができないようなケースにおいて、Amazon SageMaker と AWS Step Functions を用いてデータサイエンティストと MLOps エンジニアという 2 人の開発者がどのようにリフトアンドシフトするのかを説明していきます。







