Amazon Web Services ブログ

週刊生成AI with AWS – 2026/3/30 週

みなさん、こんにちは。AWS ソリューションアーキテクトの野間です。4 月は新年度のスタートということで、新入社員として新たにクラウドや生成 AI の世界に飛び込まれた方も多いと思います。そうしたみなさんが最新のトレンドや実践的な活用例をキャッチアップする一助として、このブログを日々の情報収集や学習に役立てていただければ幸いです。日本のお客様向けに、生成 AI の実用化を支援する各種プログラムや事例も増えてきており、「どのように始めるか」だけでなく「どうスケールさせるか」「どう安全に運用するか」といった観点でのベストプラクティスも見え始めています。新しくご入社された方も、すでにクラウドに取り組まれている方も、ぜひご自身のプロジェクトやキャリアの文脈に引き寄せながら読んでいただければと思います。

それでは 3月 30 日週の生成 AI with AWS界隈のニュースを見ていきましょう。

さまざまなニュース

    • AWS生成AI国内事例ブログ「大成株式会社様の AWS 生成 AI 活用事例「Amazon Bedrock と Amazon Q Developer で非エンジニアが実現する契約書管理 AI エージェントの構築」のご紹介
      ファシリティマネジメントや不動産投資事業を展開する大成株式会社様が、社内にエンジニアを擁さない状況の中、Amazon Bedrock と Amazon Q Developer を活用して契約書管理 AI エージェントを構築した事例です。非エンジニアのプロジェクトマネージャーが中心となり、Amazon Q Developer の自然言語によるコード生成支援と Amazon Bedrock 上の Claude による高度な PDF 文書解析を組み合わせることで、従来数十分かかっていた契約書からの情報抽出を数分に短縮(作業時間を約 70〜80% 削減)することに成功しました。「社内にエンジニアがいない」「開発リソースが限られている」という企業が抱えがちな課題に対して、業務を最もよく知る現場の担当者自身が AWS の生成 AI サービスを組み合わせて実用的なシステムを作り上げたこの事例は、スモールスタートで業務改善の成果を出すアプローチとして参考になります。
    • ブログ記事「Agentic AIの運用化 Part 1: ステークホルダー向けのガイド
      AWS Generative AI Innovation Center(GenAIIC)が 1,000 社以上の AI 本番移行支援から得た知見をもとに、Agentic AI を実業務に定着させるためのフレームワークを解説した記事です。多くの企業が AI パイロットを立ち上げながら実運用に至らない根本原因は「テクノロジーのギャップ」ではなく「オペレーティングモデルの欠如」にあるとし、成功している組織に共通する「仕事の詳細定義」「エージェントの自律性の境界設定」「継続的な改善の習慣化」という 3 つの要素を示しています。エージェント化に適した業務の見極め方(明確な開始・終了・目的、複数ツールを横断した判断、成功の測定可能性、安全な失敗モード)も具体的に説明されており、経営陣からビジネスオーナーまで幅広いステークホルダーが今日から取れるアクションをすぐに実践できる内容で、Agentic AI を活用している・これから活用を検討しているすべてのユーザーにとって、PoC 止まりを防ぎ本番稼働へと踏み出すための実践的な道標となる一記事です。
    • ブログ記事「Agentic AIの運用化 Part 2: ペルソナ別のガイダンス
      Part 1 で示した「Agentic AI の障壁はテクノロジーではなくオペレーティングモデルにある」という知見を受けて、AWS Generative AI Innovation Center(GenAIIC)が事業部門オーナー・CTO・CISO・CDO・Chief AI Officer・コンプライアンス責任者それぞれの役割に応じた実践的なガイダンスを提示しています。事業部門オーナーにはエージェントを KPI に直結させるジョブディスクリプション作成、CTO にはスケーラブルなエージェント基盤設計、CISO にはエージェントを「同僚」として扱うアイデンティティとポリシー管理、CDO にはデータの一貫性とガバナンス整備、Chief AI Officer には評価システムこそが真のプロダクトであるという考え方、コンプライアンス責任者には監査を想定した設計など、それぞれの責任に即した具体的なアクションが示されており、Agentic AI を「実験」から「本番稼働」へと引き上げるために誰が何をすべきかを職責ごとに明確に整理した内容は、生成 AI 活用を組織全体で推進しようとしているあらゆるステークホルダーにとって、今すぐ行動に移せる実用的なロードマップになっています。
    • ブログ記事「AWS DevOps Agent の一般提供開始のお知らせ
      AWS やオンプレミス環境を横断してインシデントの自律的な調査・解決・予防を行う AI エージェント「AWS DevOps Agent」が一般提供(GA)を開始し、東京リージョンを含む世界 6 リージョンで利用できるようになりました。GA にあわせて、Triage Agent による重複インシデントの自動検出、コードリポジトリのインデックスを活用したコードレベルの根本原因特定、PagerDuty・Grafana・Azure DevOps などの新規インテグレーション、プライベート接続やカスタマーマネージドキーによるエンタープライズ対応機能、そしてブラウザのロケール設定に応じてエージェントの応答を日本語を含む各言語に翻訳するローカライゼーション機能も追加されています。
    • ブログ記事「「Physical AI on AWS 勉強会 #1」を開催しました
      AWS ジャパンが「フィジカル AI 開発支援プログラム」の採択企業向けに開催した勉強会 の内容をまとめた記事で、ロボットなどの物理世界で動く AI(Physical AI)を AWS 上で開発するためのリファレンスアーキテクチャと、すぐに使えるサンプルコード集「Physical AI Scaffolding Kit(PASK)」が紹介されています。シミュレータでの合成データ生成から Amazon SageMaker HyperPod による分散学習、AWS IoT Greengrass を活用したエッジへのモデル配信までの一気通貫な開発サイクルを AWS 上で構築する方法が具体的に解説されており、ロボティクスや自動化システムの開発に取り組む企業・エンジニアにとって、Physical AI 開発の全体像と AWS 活用の実践的な出発点を得られる内容です。また、VLA(Vision-Language-Action)モデルという新しい AI アーキテクチャへの理解を深めたい生成 AI ユーザーにとっても、言語・視覚・行動を統合したモデルが実際にどのようなインフラで学習・運用されるのかを把握できる参考事例となっています。
    • ブログ記事「Amazon OpenSearch Service のエージェント AI でオブザーバビリティとトラブルシューティングを効率化
      Amazon OpenSearch Service の OpenSearch UI に、オブザーバビリティとトラブルシューティングを大幅に効率化する 3 つのエージェント AI 機能(エージェントチャットボット・調査エージェント・エージェントメモリ)が組み込まれました。エージェントチャットボットは現在表示中のコンテキストを理解して自然言語でクエリを自動生成し、調査エージェントは複数のインデックスをまたぐシグナルを plan-execute-reflect 方式で自律的に相関分析して仮説駆動型の根本原因レポートを生成します。複雑なログ分析に多大な時間を費やしてきた運用チームにとってアラートから根本原因の特定までを短時間で到達できるようになります。
    • ブログ記事「Kiro のエンタープライズガバナンス: MCP サーバーとモデルを管理する
      AI コーディング IDE「Kiro」に 2 つの新しいエンタープライズガバナンス機能が追加されました。管理者が承認済み MCP サーバーを JSON 形式のレジストリでホワイトリスト管理できる「MCP サーバーレジストリ」と、組織内の開発者が利用できる AI モデルを制限できる「モデルガバナンス」です。MCP レジストリは起動時・24 時間ごとに同期され、未承認サーバーへの接続を防止します。モデルガバナンスはデータレジデンシー要件への対応にも有効で、実験的モデルを承認完了まで無効化できます。これらの機能は Kiro IDE 0.11.28 / CLI 1.23 以降のエンタープライズユーザー向けに提供されます。
    • ブログ記事「MiniMax M2.5 と GLM-5 が Kiro に追加
      AI コーディング IDE「Kiro」に、新たにオープンウェイトモデルの MiniMax M2.5 と GLM-5 が追加され、Kiro IDE および Kiro CLI から利用できるようになりました。MiniMax M2.5 はクレジット消費が 0.25 倍という低コストながら SWE-Bench Verified で 80.2% を達成(オープンウェイトモデルとして初めて Claude Sonnet を超えた性能)した高速なモデルで、複数ステップのエージェントタスクや繰り返しの実装作業に強みを持ちます。米国東部(バージニア北部)と欧州(フランクフルト)リージョンで利用可能です。GLM-5 は 200K のコンテキストウィンドウを持つ大規模 MoE モデルでリポジトリ規模の長期的なエージェントワークフローに最適化されています。こちらは米国東部(バージニア北部)リージョンで利用可能です。

サービスアップデート

    • Amazon Bedrock AgentCore Evaluations が一般提供を開始
      AI エージェントの品質を自動評価する「Amazon Bedrock AgentCore Evaluations」が一般提供(GA)を開始し、アジアパシフィック(東京)を含む 9 リージョンで利用できるようになりました。本番トラフィックをサンプリングしてリアルタイムにスコアリングするオンライン評価と、CI/CD パイプラインや開発ワークフローに組み込めるオンデマンド評価の 2 種類を提供しており、応答品質・安全性・タスク完了率・ツール使用状況をチェックする 13 種類の組み込み評価器に加え、期待値との比較(Ground Truth)や Python・JavaScript による完全カスタム評価ロジックにも対応しています。AI エージェントを本番稼働させているユーザーにとっては品質劣化をいち早く検知できる仕組みが整い、生成 AI を活用しているエンジニアにとっても AgentCore Observability との統合によって評価・監視を一元管理できるようになる点は、Agentic AI を信頼性高く運用していく上で欠かせないアップデートです。
    • Amazon Bedrock Guardrails がクロスアカウントセーフガードの一般提供を開始
      Amazon Bedrock Guardrails に、組織内のすべての AWS アカウントにセーフガードを一元適用できる「クロスアカウントセーフガード」が一般提供(GA)となりました。管理アカウントで設定したガードレール ID を Amazon Bedrock ポリシーに指定するだけで、組織内のすべてのメンバーアカウントや組織単位(OU)に対するすべての基盤モデル呼び出しに自動的にコントロールが適用されるため、アカウントごとに個別設定する運用負荷を削減できます。
    • Amazon OpenSearch Service がログ分析向けエージェント AI 機能を提供開始
      Amazon OpenSearch Service に、エンジニアリングチームや運用チームが自然言語でログデータを分析できるエージェント AI 機能が追加され、東京 を含む 9 リージョンで追加費用なし(トークン使用量の制限あり)で利用できるようになりました。自然言語で質問して PPL クエリを自動生成・修正する「エージェントチャット」、根本原因を自律的に仮説立案・検証・ランク付けして報告する「調査エージェント」、セッションをまたいで会話を継続できる「エージェントメモリ」の 3 機能が提供されており、複雑なクエリ言語を書かなくてもインシデント調査を効率化することができます。
    • Amazon S3 Vectors が 17 の追加リージョンに拡張
      クラウドオブジェクトストレージとして初めてベクトルのネイティブな保存・クエリをサポートする「Amazon S3 Vectors」が、大阪 を含む17のリージョンに拡張され、合計 31 リージョンで利用可能になりました。1 つのベクトルインデックスに最大 20 億ベクトルを保存でき、インフラのプロビジョニング不要で最大 1 万のベクトルインデックスに弾力的にスケール、頻繁なクエリでは 100 ミリ秒という低レイテンシも実現します。Amazon Bedrock Knowledge Bases とネイティブ統合されているため、RAG(検索拡張生成)やセマンティック検索に大規模なベクトルデータを低コストで活用したい生成 AI ユーザーにとっては、今回の拡張でデータレジデンシー要件を満たしながらより身近なリージョンで運用できるようになった点が嬉しいアップデートです。
    • GLM-5 が Kiro に追加
      Kiro に、200K のコンテキストウィンドウを持つ大規模 MoE(Mixture of Experts)モデル「GLM-5」のサポートが追加され、Kiro IDE および Kiro CLI からエクスペリメンタルサポートとして利用できるようになりました。GLM-5 はリポジトリ規模の大量コンテキストを処理しながら複数ステップのツール利用にわたって一貫性を維持することに長けており、クロスファイルマイグレーション・フルスタック機能開発・レガシーコードのリファクタリングといった「全体像をモデルに把握させながら進める」複雑な作業に適しています。推論は米国東部(バージニア北部)リージョンで実行され、クレジット消費は 0.5 倍で、モデルセレクターから利用するには IDE または CLI の再起動が必要です。長いコンテキストを扱う生成 AI ユーザーにとっては、大規模コードベースを丸ごと扱う用途で Claude 系モデルとの使い分けを検討できる新たな選択肢が加わったことになります。

今週は以上です。それでは、また来週お会いしましょう!

著者について

Aiichiro Noma

野間 愛一郎 (Aiichiro Noma)

AWS Japan のソリューションアーキテクトとして、製造業のお客様を中心に日々クラウド活用の技術支援を行なっています。データベースやデータ分析など、データを扱う領域が好きです。最近天ぷらを(食べるのではなく)揚げるほうにハマってます。