Amazon Web Services ブログ
Category: Amazon SageMaker JumpStart
AWS Weekly Roundup: re:Invent 2024 での AWS BuilderCards、AWS Community Day、Amazon Bedrock、ベクトルデータベースなど (2024 年 11 月 18 日)
11 月 18 日週、ブラジルで 2024 年最後のラテンアメリカ Amazon Web Services ( […]
Amazon Bedrock で利用可能になった Meta からの Llama 3.2 モデルの紹介: 新世代のマルチモーダルビジョンモデルと軽量モデル
7 月に、AWS は Llama 3.1 モデルが Amazon Bedrock で利用可能になったことをお知 […]
Amazon Bedrock での Meta の Llama 3.1 405B、70B、8B モデルを発表
7月23日、Llama 3.1 モデルが Amazon Bedrock で利用可能になったことをお知らせします […]
LLM の埋め込み情報ドリフトを Amazon SageMaker JumpStart から監視する
生成 AI のワークロードで最も有用なアプリケーションパターンの 1 つが Retrieval Augmented Generation (RAG) パターンです。 RAG パターンでは、入力プロンプトに関連する参照コンテンツを探すために、埋め込みベクトル (テキスト文字列の数値表現) に対して類似検索を実行します。埋め込みはテキストの情報内容を捉え、自然言語処理 (NLP) モデルが言語を数値的に処理できるようにします。埋め込みは浮動小数点ベクトルであるため、3 つの重要な質問を用いて分析することができます。参照データは時間とともに変化するか、ユーザーが尋ねる質問は時間とともに変化するか、そして最後に、参照データが尋ねられている質問をどの程度カバーできているかです。
Amazon SageMaker JumpStart で ELYZA の日本語 LLM をワンクリックデプロイ
生成 AI アプリケーションの構築には、適切な日本語大規模言語モデル (LLM) の選定と活用が不可欠です。A […]
AWS Weekly Roundup:Amazon Bedrock に Anthropic’s Claude 3 Opus、Amazon SageMaker JumpStart に Meta Llama 3、その他(2024 年 4 月 22 日)
AWS Summit は、世界中のさまざまな場所でイベントが開催されるなど、世界を揺るがし続けています。AWS […]
AWS Weekly Roundup – AWS Chips Taste Test、生成 AI に関する最新情報、Community Days など – 2024 年 4 月 1 日
4月1日はエイプリルフールです。約 10 年前、一部のテクノロジー企業は、読者を喜ばせるために、面白いが、実行 […]
Amazon SageMaker JumpStartによるエンドポイントデプロイのベンチマークと最適化
大規模言語モデル (LLM) をデプロイする場合、機械学習 (ML) の担当者は通常、モデルサービングのパフォ […]
32,000トークン対応の商用利用可能な日本語チャットモデル CyberAgentLM2 をワンクリックで FineTune とデプロイ
このたび株式会社サイバーエージェントから公開されている大規模言語モデルである CyberAgentLM2-7B-Chat (CALM2-7B-Chat) が JumpStart から利用できるようになりました。今回 Amazon SageMaker Jumpstart から利用できるようになったモデルは、11月に同社から発表された次世代の CALM2 シリーズのチャット用途向けの CALM2-7B-Chat です。このモデルは 1.3 兆トークンの日本語と英語の公開データセットで学習された Transformer ベース(Llama)の CyberAgentLM2-7B (CALM2-7B) をチャット向けに教師有り学習でファインチューニングしたモデルです。入出力の長さとして 32,000 トークンに対応しており、日本語の文章として約 50,000 文字を一度に処理することができます。モデルは商用利用可能な Apache License 2.0 で提供されています。
API と OSS 、蓄積したデータで精度を改善するならどちらの基盤モデルを選択すべきか : 質問回答編
本文書では、サービスや製品に蓄積したデータを活用した精度改善を視野に入れた場合、 API と OSS のどちらがコスト効率が良くなるのかを検証します。 API は Amazon Bedrock や ChatGPT などのサービス、 OSS は Hugging Face などで公開されている基盤モデルを GPU インスタンスでホスティングする利用形態を想定しています。本 2 つの手法でデータをプロンプトに組み込む、追加学習に使用した場合の精度とコストを比較します。