Amazon Web Services ブログ
週刊生成AI with AWS – 2025/11/24週
みなさん、こんにちは。AWS ソリューションアーキテクトの木村です。
週末は千葉県のキャンプ場で綺麗な夜空を見て気分をリフレッシュし、きたる re:Invent 2025 に備えていました。
そう、今週はついに re:Invent 2025 ですね!どんな発表があるのか私自身もとても楽しみです!
毎年おなじみAWS Japanから提供する re:invent 速報を今年も開催いたします。ぜひこちらのページより事前登録をお願いいたします。
先日 2つの新しいプランを追加した「AWS ジャパン生成 AI 実用化推進プログラム」も非常に多くの申し込みをいただいています。引き続き募集中ですのでよろしくお願いします。
それでは、11 月 24 日週の生成 AI with AWS界隈のニュースを見ていきましょう。すでに多くの update が出ているためカテゴリーに分けて記載しています。
さまざまなニュース
お客様事例・実践レポート
-
- AWS生成AI国内事例ブログ「東京海上日動システムズ株式会社様の AWS 生成 AI 事例:全社生成 AI 実行基盤とエンタープライズ RAG システムの構築」
東京海上日動システムズ様における全社向け生成 AI 実行基盤の構築事例を紹介しています。マルチアカウント構成による基盤設計の考え方や、RAG システムにおける技術選定と実装の工夫、コスト最適化の取り組みなど、企業での生成 AI 活用を検討される際の参考となる内容です。 - AWS生成AI国内事例ブログ「グラフデータを使用した Network Digital Twin と Agentic AI を活用した被疑箇所の特定」
NTTドコモ様とAWSは、通信ネットワークの複雑な障害における根本原因分析を革新するため、Amazon NeptuneグラフデータベースによるNetwork Digital TwinとAgentic AI(Strands Agents + Amazon Bedrock AgentCore)を組み合わせたソリューションを開発しました。従来の相関関係ベースのアプローチから因果関係を捉えるアプローチへと転換し、ネットワークトポロジー、アラーム、KPIをリアルタイムにグラフ構造化したネットワークナレッジレイヤーと、4つのRunbookデザインパターン(基本的なグラフ分析、既知パターンマッチ、異常検知融合、予測値からの乖離検出)によるAgentic AIワークフローを実装しています。NTTドコモの商用ネットワークでの検証では、トランスポートネットワークおよび無線アクセスネットワークにおける複雑な障害ケースで15秒のMTTD(平均検知時間)を実現し、従来の数時間かかっていた根本原因特定プロセスを短縮しました。詳細なアーキテクチャと4つのRunbookパターンの実装方法をブログでチェックしてみてください。 - ブログ記事「株式会社 LIFULL 様の AI-DLC Unicorn Gym 実践レポート: 組織的な AI 活用による開発生産性向上」
LIFULL 様とAWSの共同執筆により、AI 駆動開発ライフサイクル(AI-DLC)Unicorn Gym の実践を通じて得られた学びとその後の変化をお伝えしています。LIFULL様は AWS の ソフトウェア開発生成 AI アシスタントである Amazon Q Developer を全社的に活用し、エンジニアだけでなく企画職の方も業務の生産性向上に取り組まれています。個人単位でのAI Agentの活用は着実に進んでいますが、次のステップとして組織でどう活用していくかはまだ検討段階にありました。組織的な活用をさらに進めるため、LIFULL 様と AWS で AI-DL Unicorn Gym と呼ばれるワークショップに取り組み、AI-DLC の有効性を確認しました。ブログでは AI-DLC Unicorn Gym の成果と、実施後の開発にどのような変化があったのかをお伝えしています。
- AWS生成AI国内事例ブログ「東京海上日動システムズ株式会社様の AWS 生成 AI 事例:全社生成 AI 実行基盤とエンタープライズ RAG システムの構築」
Kiroweeeeeeek in Japan
-
- Day6 – Amazon Q Developer CLI から Kiro CLI へ : 知っておくべき変更点
Amazon Q Developer CLIが Kiro CLI へと進化し正式リリースされました。GoogleやGitHubアカウントでのログインが可能になったほか、開発効率を大幅に向上させる新機能が追加されています。ブログでは、Kiro の一般提供で利用可能になった Kiro CLI に焦点を当て、「Amazon Q Developer CLI から Kiro CLI で何が変わったの?」という疑問をお持ちの方へ変更点や新機能を紹介しています。 - Day7 – イベントストーミングから要件・設計・タスクへ。Kiro を活用した仕様駆動開発
イベントストーミングは、ビジネスの流れを可視化し、業務のエキスパートや開発メンバーが同じ理解を持てるようにするためのプラクティスです。Big Picture を使ってサブドメイン間の関係性を整理したり、業務内容をコードに落とし込むための設計に活用したりと、業務分析から設計まで幅広く役立ちます。しかし、イベントストーミングで得られた成果物を「どこから実装に落とし込むのか」「どうテストするのか」といった部分は、開発者がつまずきやすいポイントではないでしょうか。ブログでは、Kiro の Spec 機能を活用して、イベントストーミングの成果物を要件定義・設計・実装タスクへと変換していくプロセスを紹介しています。 - Day8 – Kiro における負債にならない Spec ファイルの扱い方
Kiro の Spec ファイルは「仕様駆動開発」を構成する要素です。Spec ファイルにより仕様を起点として設計・実装を進めることができ、仕様と実装の同期を保ちながら開発を進めることができます。このように Spec ファイルは Kiro の中核をなす要素なのですが、適切に扱わないと負債になってしまう可能性があります。ブログでは、「Spec ファイルの切り方」「Spec ファイルの更新方法」「Spec ファイルの共有方法」の 3 つの視点から、負債にならないための工夫を紹介していま。 - Day9 – AWS Japan の新卒が Kiro でマネコン上の操作を支援する Chrome 拡張機能をチーム開発してみた!
Kiroは個人開発に強いツールという印象があるかもしれませんが、実はチーム開発でも十分に力を発揮できます。本記事では、AWS Japanの新卒メンバー4名が約2ヶ月でAWSマネジメントコンソールの操作を支援するChrome拡張機能を開発した実践例を通じて、ステアリング機能によるコーディング規約の統一、MVP思考でのSpec分割による適切なタスク粒度の維持、そしてバージョン情報を含めた技術選定の明確化など、チーム開発で必要な具体的なノウハウを詳しく解説しています。 - Day10 – スピードと品質の両立 – Kiro が加速する開発、GitLab AI が支えるレビュー。新時代の開発パートナーシップ設計
AI 駆動開発の新常識。Kiroによる開発速度の飛躍的向上は、同時にコードレビューの負荷増大という課題をもたらします。ブログでは、GitLab Duo Self-Hosted(Amazon Bedrock活用)とKiroを組み合わせることで、この課題を解決する新しいワークフローを提案しています。発注元と開発が分離している開発現場で、スピードと品質を両立させる持続可能なパートナーシップモデルを知りたい方は、ぜひチェックしてください。 - Kiro をはじめる第一歩:あなたに合った学習パスを見つける
「Kiroweeeeeeek in Japan」の最終号となるこのブログでは、12日間で公開された全10個のコンテンツを振り返りながら、読者の状況や関心に合わせた学習パスをガイドします。「Kiroを初めて使う人」「Amazon Q Developerから移行したい人」「組織での導入を検討している人」「実践的な使い方を知りたい人」の4つのペルソナ別に、どのコンテンツから読み始めるべきかを紹介しています。これからKiroを始める方、より深く活用したい方は、ぜひ本記事で自分に最適な学習パスを見つけて、新しい開発の旅を始めてください。
- Day6 – Amazon Q Developer CLI から Kiro CLI へ : 知っておくべき変更点
その他のKiro関連
-
- ブログ記事「Kiro における Opus 4.5 をご紹介」
KiroでAnthropicの最新かつ最も高性能なモデルClaude Opus 4.5のサポートが開始されました。Kiro IDEとKiro CLIで利用可能なこの新しいモデルの詳細や、クレジット倍率などの情報について、ぜひブログををチェックしてください。 - ブログ記事「Kiro クレジットをより有効活用する方法」
KiroのAutoエージェントが効率化され、高品質を維持しながらクレジット使用量を削減できるようになりました。新バージョンのAutoでは、日常的な一般的なリクエストでクレジット使用量が21%削減され、最も複雑で要求の厳しいリクエストでは36%もの削減を実現しています。まだAutoを試していない方は今が始める絶好のタイミングですので、ぜひブログで詳細をチェックしてみてください。
- ブログ記事「Kiro における Opus 4.5 をご紹介」
ブログ記事・開催報告
-
- ブログ記事「第 5 回 AWS ジャパン 生成 AI Frontier Meetup ~学びと繋がりの場~【開催報告】」
2025年11月17日に開催された第5回生成AI Frontier Meetupでは、累計250社超を支援する「生成AI実用化推進プログラム」の参加企業や基盤モデル開発者が一堂に会し、最新の取り組みを共有しました。生成AIの社会実装に向けた具体的な学びと参加者同士の交流が活発に行われた有意義なイベントの開催報告を是非チェックしてみてください。 - ブログ記事「AI ワークロードのパフォーマンスとコストの一致に役立つ新しい Amazon Bedrock サービスティア」
Amazon BedrockにPriority、Standard、Flexの3つのサービスティアが導入され、ワークロードの特性に応じた柔軟なコスト最適化が可能になりました。Priorityティアは他のティアよりも最大25%優れたOTPS (1 秒あたりの出力トークン数) レイテンシーを実現し、カスタマーサービスチャットやリアルタイム翻訳などミッションクリティカルなアプリケーションに最適で、Standardティアはコンテンツ生成やテキスト分析などの日常的なAIタスクに通常料金で一貫したパフォーマンスを提供し、Flexティアはモデル評価やコンテンツ要約、エージェンティックワークフローなど長いレイテンシーに対応できるワークロードに低料金で優れたコスト効率を実現します。APIコールごとにティアを選択できるため、即時応答が必要なワークロードと段階的処理が可能なワークロードを識別して最適化することで、パフォーマンス要件を満たしながら支出を効果的に管理できますので、ぜひ本記事をチェックしてください。 - ブログ記事「オープンウェイトモデル( gpt-oss )の日本語精度は? – AWS パートナー アクロクエストによる徹底検証」
2025年8月にAmazon Bedrock上で利用可能になったOpenAIのオープンウェイトモデル「gpt-oss」」の日本語能力を、AWSパートナーのアクロクエストテクノロジー様に検証いただきました。XL-Sum(要約)、JEMHopQA(論理的推論)、JSQuAD(RAG/文章理解)の3つのデータセットで検証しClaude Sonnet 4.5、Claude Haiku 3.5/4.5、Llama 4 Scout 17B-16Eとの比較をしています。モデル選定に役立つ指針になっていますので是非チェックしてみてください。 - ブログ記事「Amazon SageMaker Catalog の新しいビジネスメタデータ特徴量により、組織全体で発見をより容易にする」
Amazon SageMaker Catalogに組織全体でのデータ発見性を向上させる2つの新機能が追加されました。1つ目の「列レベルのメタデータフォームとリッチテキスト説明」では、個々の列に対してカスタムメタデータフォームを作成し、マークダウン対応のリッチテキストで包括的なデータ文書化が可能になります。2つ目の「アセット発行時の用語集メタデータルール適用」では、データ作成者が発行前に組織の用語集で承認されたビジネス用語を使用してアセットを分類することを必須化でき、一貫したメタデータ標準を促進してコンプライアンス強化と監査準備を向上させます。具体的な設定方法や活用シーンについてブログでチェックしてみてください。 - ブログ記事「Amazon SageMaker Unified Studio の新しいワンクリックオンボーディングと組み込み AI エージェントを含むノートブック」
Amazon SageMaker Unified Studioに既存のAWSデータセットへの迅速なアクセスを実現する3つの新機能が追加されました。「ワンクリックオンボーディング」では既存のIAMロールと許可を使用してAWS Glue データカタログ、AWS Lake Formation、Amazon S3のデータ許可を備えたプロジェクトを自動作成します。「直接統合」ではAmazon SageMaker、Amazon Athena、Amazon Redshift、Amazon S3 Tablesのコンソールから直接起動して分析とAIワークロードへの迅速なパスを提供します。「組み込みAIエージェントを含むノートブック」では、Amazon SageMaker Data Agentが自然言語プロンプトからSQL、Python、Sparkコードを生成してデータエンジニア・アナリスト・データサイエンティストの開発を加速し、Amazon Athena Spark、AWS Glue Spark、Amazon MWAAなどのサーバーレスコンピューティングも自動作成されてプロビジョニング不要でジャストインタイムのリソース利用とコスト削減を実現します。具体的なセットアップ手順やAIエージェントの活用例をブログチェックしてみてください。
- ブログ記事「第 5 回 AWS ジャパン 生成 AI Frontier Meetup ~学びと繋がりの場~【開催報告】」
サービスアップデート
生成AIを組み込んだ構築済みアプリケーション
-
- Amazon Quick Suite Embedded Chat が利用可能になりました
Amazon Quick Suite Embedded Chat の一般提供を開始しました。これまで別々のツールで対応していた構造化データと非構造化データの検索を、一つの会話型 AI で統合できるようになります。CRM や分析ポータルなどの既存アプリケーションに簡単に埋め込み可能で、ユーザーは作業環境を離れることなく KPI の確認からファイル検索、Slack 送信まで実行できます。バージニア北部、オレゴン、シドニー、アイルランドリージョンで利用可能で追加料金はありません。詳細はこちらの Blog 記事をご参照ください。 - Amazon Quick Suite が Quick Flows のスケジューリング機能を導入
Amazon Quick Flows でスケジューリング機能が利用可能になりました。これまで手動で実行していたワークフローを、指定した時間や間隔で自動実行できるようになります。日次、週次、月次またはカスタム間隔で設定でき、定期レポートの生成やタスクサマリー作成、会議資料の準備などの繰り返し業務を効率化できます。バージニア北部、オレゴン、アイルランドリージョンで利用でき、 Quick Flows の標準料金以外の追加費用はかかりません。詳細はこちらのドキュメントをご参照ください。 - Amazon Quick Research に信頼できるサードパーティ業界インテリジェンスが追加
Amazon Quick Research で、サードパーティの業界データにアクセスできるようになりました。S&P Global や FactSet、IDC などの専門データプロバイダーのデータを、企業の内部データやリアルタイム Web 検索と組み合わせて分析できます。これまで複数のプラットフォームを行き来する必要があった作業が、一つのワークスペースで完結するため、金融アナリストは投資判断を、エネルギーチームは取引戦略を、営業チームはトレンド分析を効率的に行えます。バージニア北部、オレゴン、シドニー、アイルランドリージョンで利用可能です。詳細はこちらのドキュメントをご参照ください。
- Amazon Quick Suite Embedded Chat が利用可能になりました
アプリケーション開発のためのツール
-
- Claude Opus 4.5 が Amazon Bedrock で利用可能になりました
Amazon Bedrock で Claude Opus 4.5 が利用可能になりました。Anthropic の最新モデルで、従来の Opus レベルの高性能を 1/3 のコストで実現できます。プロフェショナルなソフトウェア開発タスクで最先端の性能を発揮し、通常複数日かかるチーム開発を数時間に短縮することが可能になります。コーディングだけでなく、文書やスプレッドシート、プレゼンテーション作成でも威力を発揮し、金融などの精度重視の業界に最適です。新機能として tool search と tool use examples が追加され、複雑なタスクを正確に実行できるようになりました。詳細はこちらの Blog 記事をご参照ください。 - Amazon Bedrock が Reserved Service Tier を導入
Amazon Bedrock で新しい Reserved Service tier が提供開始されました。予測可能なパフォーマンスと保証された tokens-per-minute 容量を提供し、ミッションクリティカルなアプリケーションのサービスレベルを安定させることができます。入力と出力の token 容量を個別に調整できるため、要約タスク (多くの入力、少ない出力) やコンテンツ生成 (少ない入力、多くの出力) など、非対称な token 使用パターンに最適化できます。容量不足時は自動的に Standard tier にオーバーフローし、運用を継続します。現在 Anthropic Claude Sonnet 4.5 で利用可能で、1 ヶ月または 3 ヶ月の期間で予約できます。詳細はこちらのドキュメントをご参照ください。
- Claude Opus 4.5 が Amazon Bedrock で利用可能になりました
基盤モデルのトレーニングと推論のためのインフラストラクチャー
-
- Amazon SageMaker HyperPod が生成 AI タスク向けに NVIDIA Multi-Instance GPU (MIG) をサポート開始
Amazon SageMaker HyperPod で NVIDIA Multi-Instance GPU (MIG) 技術がサポートされました。この機能により、1 つの GPU を複数の独立した GPU に分割して、複数の生成 AI タスクを同時実行できます。従来は GPU 全体を 1 つのタスクで占有する必要がありましたが、今回のアップデートで小さなタスクでも効率的にリソースを活用できるようになりました。データサイエンティストは軽量な推論タスクやノートブック実行時の待機時間を削減でき、開発スピードが向上します。詳細はこちらのドキュメントをご参照ください。 - Amazon SageMaker HyperPod が Spot インスタンスをサポート開始
Amazon SageMaker HyperPod で Spot Instances がサポートされ、GPU 計算コストを最大 90% 削減できるようになりました。Spot Instances は AWS の余剰 EC2 キャパシティを安価で利用する仕組みで、大規模な AI ワークロードのコスト最適化に効果的です。オンデマンドインスタンスと組み合わせることで、コスト削減と可用性のバランスを取れます。詳細はこちらのドキュメントをご参照ください。 - Amazon SageMaker AI Inference が双方向ストリーミングをサポート開始
Amazon SageMaker AI Inference で双方向ストリーミング機能が提供開始されました。例えば音声をリアルタイムでテキストに変換し、ストリーミングで文字起こし結果を取得することが可能になります。従来は複雑な WebSocket 実装が必要でしたが、新しい Bidirectional Stream API を使えば簡単に音声エージェントを構築できます。チャットボットや音声アシスタントの開発において、遅延を最小限に抑えた自然な会話体験を実現可能です。詳細はこちらの Blog 記事をご参照ください。 - Amazon SageMaker AI が EAGLE speculative decoding をサポート開始
Amazon SageMaker AI が EAGLE speculative decoding をサポート開始しました。EAGLE (Extrapolation Algorithm for Greater Language-model Efficiency) speculative decodingとは、複数のトークンを並列で生成および検証することで推論スループットを最大2.5倍向上させる技術です。AI アプリケーションの応答時間が改善され、出力品質を維持しながら高速な推論が可能です。東京リージョンを含む 7 つのリージョンで利用できます。詳細はこちらの Blog 記事をご参照ください。 - Amazon SageMaker AI が推論向けの Flexible Training Plans 容量をサポート開始
Amazon SageMaker AI の Flexible Training Plans (FTP) が推論エンドポイントに対応しました。FTP は GPU 容量を事前に予約できるサービスで、これまでは学習のみでしたが推論処理でも利用可能になりました。必要なインスタンスタイプと期間を指定して予約すれば、SageMaker AI が自動でエンドポイントを起動してくれるため、インフラ管理の手間が不要です。モデル評価や本番運用のピーク時に確実に GPU を確保でき、ML 開発サイクルを計画的に進められます。バージニア北部、オレゴン、オハイオリージョンで利用可能です。詳細はこちらの API リファレンスをご参照ください。 - Amazon SageMaker HyperPod がプログラマティックなノード再起動と交換をサポート
Amazon SageMaker HyperPod で、クラスターノードの再起動・交換を行う新しい API が利用可能になりました。BatchRebootClusterNodes と BatchReplaceClusterNodes API により、応答しなくなったノードや劣化したノードをプログラム的に復旧できます。従来は手動作業が必要でしたが、最大 25 インスタンスまでのバッチ処理で効率的な運用が実現します。機械学習ワークロードの実行中にノード障害が発生した際も、迅速な復旧によりダウンタイムを最小化できます。現在オハイオ、ムンバイ、東京リージョンで利用可能です。詳細はこちらのドキュメントをご参照ください。 - Amazon SageMaker HyperPod がカスタム Kubernetes ラベルと taint をサポート
Amazon SageMaker HyperPod でカスタム Kubernetes ラベルと taint がサポート開始されました。これにより GPU リソースの効率的な制御とワークロード配置が可能になります。従来は kubectl を使った手動設定と運用が必要でしたが、今回のアップデートで CreateCluster や UpdateCluster API を通じて自動管理できるようになりました。インスタンスグループごとに最大 50 個のラベルと 50 個の taint を設定でき、高コストな GPU リソースを AI トレーニング専用に確保したり、デバイスプラグインとの統合も簡単になります。詳細はこちらのドキュメントをご参照ください。 - SageMaker HyperPod が Managed tiered KV cache とインテリジェントルーティングをサポート
Amazon SageMaker HyperPod で Managed Tiered KV Cache と Intelligent Routing が利用可能になりました。大規模言語モデル (LLM) の推論で、長い文書処理や会話の文脈維持時のパフォーマンスを最適化できます。従来は新しいトークン生成のたびに全ての過去のトークンに対して計算が必要でしたが、計算済みの値をキャッシュして再利用することで最大 40 % のレイテンシ削減と 25 % のコスト削減を実現します。詳細はこちらのユーザーガイドをご参照ください。
- Amazon SageMaker HyperPod が生成 AI タスク向けに NVIDIA Multi-Instance GPU (MIG) をサポート開始
MCP
-
- 新しい Amazon SageMaker AI MCP Server で Amazon SageMaker HyperPod クラスターを管理
Amazon SageMaker AI MCP Server で HyperPod クラスターの設定・管理機能が追加されました。AI コーディングアシスタントが AI/ML クラスターを自動構築・運用できるようになり、データサイエンティストがインフラの専門知識なしでモデル訓練環境を構築可能です。CloudFormation テンプレートによる最適化で高性能な分散訓練・推論ワークロードに対応し、クラスター管理やスケーリング、メンテナンスも自動化されます。詳細はこちらのドキュメントをご参照ください。 - AWS Knowledge MCP Server がトピックベース検索をサポート
AWS Knowledge MCP Server がトピックベース検索に対応し、AI エージェントや開発者が AWS ドキュメントをより効率的に検索できるようになりました。従来は一般的な検索のみでしたが、今回 Troubleshooting や AWS Amplify、CDK などの特定分野に絞った検索が可能になり、関連性の高い情報を素早く取得できます。例えばエラー解決時にはトラブルシューティングドキュメントのみを検索し、フロントエンド開発では Amplify 関連情報だけを対象にできるため、開発効率が大幅に向上します。詳細はこちらのドキュメントをご参照ください。 - AWS API MCP Server が AWS Marketplace で利用可能になりました
AWS API MCP Server が AWS Marketplace で利用開始されました。従来はRemote MCP のみでしたが、お客様独自のインフラストラクチャ (Amazon Bedrock AgentCore) に MCP サーバーをデプロイできるようになりました。企業レベルのセキュリティとスケーラビリティを実現します。認証設定や IAM ポリシーの実装が可能で、コンテナ管理も簡素化されます。詳細はこちらをご参照ください。
- 新しい Amazon SageMaker AI MCP Server で Amazon SageMaker HyperPod クラスターを管理
その他
-
- Amazon OpenSearch Service が Agentic Search を導入
Amazon OpenSearch Service で Agentic Search が開始されました。これまで複雑な検索構文を覚える必要がありましたが、今回のアップデートで「3万ドル以下の赤い車を探して」といった自然言語での検索が可能になりました。AI エージェントがユーザーの意図を理解し、最適な検索戦略を自動選択して結果を返してくれます。技術的な専門知識がなくても直感的にデータ検索ができるため、業務効率が大幅に向上します。OpenSearch Service version 3.3 以降で利用可能です。詳細はこちらの技術文書をご参照ください。 - Amazon Lex が自然言語理解の主要オプションとして LLM をサポート開始
Amazon Lex で LLM (大規模言語モデル) を使った自然言語理解が可能になりました。これまでより複雑な会話や曖昧な表現も正確に理解し、スペルミスがあっても適切に処理できます。例えば「フライトのことで助けが欲しい」という曖昧なリクエストに対して、ステータス確認・アップグレード・変更のどれを求めているか自動で確認してくれます。音声・チャットボット両方で利用でき、より自然な顧客対応が実現します。詳細はこちらのドキュメントをご参照ください。
- Amazon OpenSearch Service が Agentic Search を導入
それではまた来週お会いしましょう!来週は re:Invent 2025 特別号をお送りします!