Amazon Web Services ブログ

Category: Generative AI

生成 AI で加速する e コマースの変革 その 2 – AWS Summit Japan 2024 で展示した Amazon Bedrock デモの解説

AWS では e コマース(以下 EC)業界におけるユースケースの整理とその実装を支援しております。
本ブログでは以下 2回に分けて、EC業界における生成AI活用ユースケースについて解説をしていきます。
その 1:EC 業界における課題と生成 AI ユースケースによる解決案の整理
その 2:それらユースケースの実装例として AWS Summit Japan 2024 で展示したデモの解説

今回はその 2、EC 業界における代表的な生成 AI ユースケースについて、Amazon Bedrock を利用した具体的な実装例として AWS Summit Japan 2024 で展示したデモの解説を行います。

生成 AI で加速する e コマースの変革 その 1 – EC 業界における 4 大ユースケース紹介

AWS では e コマース(以下 EC)業界におけるユースケースの整理とその実装を支援しております。
本ブログでは以下 2回に分けて、EC業界における生成AI活用ユースケースについて解説をしていきます。
その 1:EC 業界における課題と生成 AI ユースケースによる解決案の整理
その 2:それらユースケースの実装例として AWS Summit Japan 2024 で展示したデモの解説

今回はその 1、EC 業界における代表的な生成 AI ユースケースが解決する業界課題について、背景から解説していきます。

AWS Trainium、AWS Inferentia が AWS 上の Llama 3.1 モデルに高性能と低コストを提供

本日、AWS Trainium と AWS Inferentia による Llama 3.1 モデルのファインチューニングと推論のサポートを発表できることを嬉しく思います。Llama 3.1 ファミリーは、8B(80億)、70B(700億)、405B(4,050億)サイズの事前学習およびインストラクションチューニング済みの多言語大規模言語モデル(LLM)のコレクションです。
以前の投稿では、Amazon SageMaker JumpStart で AWS Trainium と Inferentia ベースのインスタンスに Llama 3 モデルをデプロイする方法について解説しました。今回の投稿では、AWS AI チップ上で そのコストパフォーマンスの利点と共に Llama 3.1 ファミリーのモデルのファインチューニング及びデプロイを実現する方法について概説します。