Amazon Web Services ブログ

Tag: Amazon SageMaker

32,000トークン対応の商用利用可能な日本語チャットモデル CyberAgentLM2 をワンクリックで FineTune とデプロイ

このたび株式会社サイバーエージェントから公開されている大規模言語モデルである CyberAgentLM2-7B-Chat (CALM2-7B-Chat) が JumpStart から利用できるようになりました。今回 Amazon SageMaker Jumpstart から利用できるようになったモデルは、11月に同社から発表された次世代の CALM2 シリーズのチャット用途向けの CALM2-7B-Chat です。このモデルは 1.3 兆トークンの日本語と英語の公開データセットで学習された Transformer ベース(Llama)の CyberAgentLM2-7B (CALM2-7B) をチャット向けに教師有り学習でファインチューニングしたモデルです。入出力の長さとして 32,000 トークンに対応しており、日本語の文章として約 50,000 文字を一度に処理することができます。モデルは商用利用可能な Apache License 2.0 で提供されています。

AWSのサーバーレスと機械学習のサービスを活用した列車遅延予測機能の追加とその精度向上(小田急電鉄様の取り組み)

本投稿は小田急アプリや他社サービスなどに連携する列車遅延予測機能の追加とその精度向上の取り組みについて、実際に […]

自動シャットダウンソリューションを使ってAmazon SageMaker Canvas のコストを最適化する方法

この投稿では SageMaker Canvas アプリケーションのコストをより最適化する新しい方法を紹介します。 SageMaker Canvas は現在、アプリの使用状況とアイドル時間に関するインサイトを提供する Amazon CloudWatch Metrics を収集しています。 お客様はこの情報を使用して、意図しないコストの発生を避けるために自動的にアイドル状態の SageMaker Canvas アプリケーションをシャットダウンできます。

API と OSS 、蓄積したデータで精度を改善するならどちらの基盤モデルを選択すべきか : 質問回答編

本文書では、サービスや製品に蓄積したデータを活用した精度改善を視野に入れた場合、 API と OSS のどちらがコスト効率が良くなるのかを検証します。 API は Amazon Bedrock や ChatGPT などのサービス、 OSS は Hugging Face などで公開されている基盤モデルを GPU インスタンスでホスティングする利用形態を想定しています。本 2 つの手法でデータをプロンプトに組み込む、追加学習に使用した場合の精度とコストを比較します。

クラウドを用いた PGA ツアーでのボール位置追跡システム

PGAツアーはゴルフの観戦体験を向上させるために、リアルタイムのデータを活用しています。次世代のボール位置トラッキングシステムの開発のため、Amazon Generative AI Innovation Center (GAIIC) は、PGAツアーのイベントで得たデータを用いて、畳み込みニューラルネットワークを連結したパイプラインを開発しました。この投稿では、そのパイプラインの開発とパフォーマンスの評価について説明します。

生成系AIが拓くイノベーション − Part.3 :大規模言語モデル(LLM)を活用した製薬企業の業務改善

本記事は、製薬企業で 大規模言語モデル(LLM)の効果が大きく期待できる様々なユースケースについて業務部門毎に […]