Amazon Web Services ブログ

週刊生成AI with AWS – 2026/3/16 週

みなさん、こんにちは。AWS ソリューションアーキテクトの三厨です。

週末の3連休は皆様いかがお過ごしでしたでしょうか? リフレッシュされた状態で今週も技術のキャッチアップを進めていきましょう。

今週  3 月 26 日(木)には「Amazon Quick Suite で変わる業務の現場 — 活用企業・AWS社員による事例紹介」が開催されます。分析業務や定型業務の効率化に興味がある方はぜひご参加ください!

それでは、3 月 16 日週の生成 AI with AWS界隈のニュースを見ていきましょう。

さまざまなニュース

    • ブログ記事「Amazon Bedrock AgentCore による、高度なネットワーク運用エージェントの構築」を公開
      深夜にネットワーク障害のアラートが届いたとき、複雑なクラウド環境のトラブルシューティングには膨大な時間がかかります。この記事では、Amazon Bedrock AgentCore の AI 機能を AWS のネットワーキングサービスと統合し、ネットワーク障害の診断と修復を自動化する高度なネットワーク運用エージェントの構築方法を解説しています。Interface & Integration、Security & Operations、Intelligence、Orchestration、Memory、Deployment、Evaluation の 7 つのビルディングブロックを組み合わせるモジュラーなアプローチが紹介されており、エージェンティック AI によるネットワーク運用の自動化に関心のある方におすすめの記事です。

サービスアップデート

    • Amazon Bedrock がアジアパシフィック(ニュージーランド)リージョンで利用可能に
      Amazon Bedrock がアジアパシフィック(ニュージーランド)リージョンで利用可能になりました。Anthropic(Sonnet 4.5、Sonnet 4.6、Opus 4.5、Opus 4.6、Haiku 4.5)および Amazon(Nova 2 Lite)のモデルがクロスリージョン推論で利用できます。ニュージーランドのお客様にとって、より低レイテンシーで生成 AI アプリケーションを構築できるようになりました。
    • Amazon Bedrock にて Minimax M2.5 および GLM 5 モデルが利用可能に
      Amazon Bedrock のモデル選択肢が拡大し、GLM 5 と Minimax M2.5 が追加されました。GLM 5 は複雑なシステムエンジニアリングや長期的なエージェンティックタスクに最適化されたフロンティアクラスの汎用大規模言語モデルです。Minimax M2.5 はエージェントネイティブなフロンティアモデルで、効率的な推論とタスク分解に優れ、実世界の時間・コスト制約下で複雑なワークフローを完了するよう設計されています。エージェンティック AI のユースケースに取り組んでいる方にとって、新たな選択肢となります。
    • NVIDIA Nemotron 3 Super が Amazon Bedrock で利用可能に
      Amazon Bedrock にて NVIDIA Nemotron 3 Super が利用可能になりました。Mixture-of-Experts(MoE)アーキテクチャを採用したオープンモデルで、複雑なマルチエージェントアプリケーション向けに設計されています。長いマルチステップタスクにおいてもコンテキストを失わずに高速かつコスト効率の良い推論を実現します。重み、データセット、レシピが完全にオープンで、カスタマイズも容易です。
    • Amazon Bedrock AgentCore Runtime にて AG-UI プロトコルをサポート
      Amazon Bedrock AgentCore Runtime にて、Agent-User Interaction(AG-UI)プロトコルのサポートが追加されました。AG-UI は AI エージェントとユーザーインターフェース間の通信を標準化するオープンなイベントベースのプロトコルです。既存の MCP(ツール連携)や A2A(エージェント間通信)に加え、AG-UI によりエージェントをユーザー向けアプリケーションに統合できるようになります。テキストチャンクやツール結果のリアルタイムストリーミング、UI 要素の状態同期などが可能で、東京リージョン含む 14 リージョンで利用可能です。
    • Amazon Bedrock AgentCore Runtime にてシェルコマンド実行をサポート
      Amazon Bedrock AgentCore Runtime にて、実行中のセッション内でシェルコマンドを直接実行できる新しい API「InvokeAgentRuntimeCommand」が追加されました。テストの実行、依存関係のインストール、git コマンドの実行など、LLM による推論と並行して決定論的な操作を行う必要がある場面で、カスタムロジックを構築する必要がなくなります。東京リージョン含む 14 リージョンで利用可能です。
    • Amazon Bedrock AgentCore Runtime にて WebRTC による双方向リアルタイムストリーミングをサポート
      Amazon Bedrock AgentCore Runtime にて、WebRTC プロトコルのサポートが追加されました。既存の WebSocket に加え、UDP ベースのピアツーピア通信により低レイテンシーの音声・映像の双方向ストリーミングが可能になります。ブラウザやモバイルアプリケーションでの音声エージェント構築に最適で、Amazon Kinesis Video Streams のマネージド TURN やサードパーティ TURN など柔軟な構成が選択できます。東京リージョン含む 14 リージョンで利用可能です。
    • SageMaker HyperPod にてアイドルリソース共有による動的クラスター活用をサポート
      Amazon SageMaker HyperPod のタスクガバナンスにて、動的リソース共有機能が追加されました。チームが保証されたクォータを超えて未割り当てのコンピュートキャパシティをベストエフォートで借用できるようになります。管理者はアクセラレータ、vCPU、メモリなどのリソースタイプごとに借用上限を設定でき、高価な GPU インスタンスのアイドル状態を削減してクラスター全体の利用効率を最大化できます。東京リージョン含む複数のリージョンで利用可能です。
    • SageMaker Training Plans にて既存のキャパシティコミットメントの延長が可能に
      SageMaker Training Plans にて、AI ワークロードが予想より長くかかった場合にプランを延長できるようになりました。1 日単位で最大 14 日、または 7 日単位で最大 182 日(26 週間)の延長が可能で、API または SageMaker コンソールから実行できます。延長購入後はワークロードの再設定なしに中断なく実行を継続できます。
    • AWS にて NIXL と EFA の統合により大規模 LLM 推論を高速化
      AWS にて NVIDIA Inference Xfer Library(NIXL)と Elastic Fabric Adapter(EFA)の統合がサポートされました。分離型 LLM 推論における KV キャッシュのスループット向上、トークン間レイテンシーの削減、KV キャッシュメモリ利用の最適化を実現します。NIXL は NVIDIA Dynamo、SGLang、vLLM などのフレームワークとネイティブに統合され、すべての EFA 対応 EC2 インスタンスタイプで追加コストなしで利用可能です。
    • AWS Neuron にて Amazon EKS の Dynamic Resource Allocation をサポート
      AWS Neuron の Dynamic Resource Allocation(DRA)ドライバーが Amazon EKS で利用可能になりました。Kubernetes ネイティブなハードウェア対応スケジューリングを AWS Trainium ベースのインスタンスに提供します。インフラチームが再利用可能な ResourceClaimTemplate を定義し、ML エンジニアはハードウェアの詳細を意識せずにテンプレートを参照するだけでデプロイできるようになります。分散トレーニングや分離型推論アーキテクチャのスケーリングが容易になります。
    • AWS Security Agent にてペネトレーションテストレポートのダウンロードをサポート
      AWS Security Agent にて、ペネトレーションテストレポートのダウンロード機能が追加されました。リスクレベル、信頼度、ステータスなどのフィルターに基づいてカスタマイズされたレポートを PDF 形式で作成できます。各レポートにはエグゼクティブサマリー、テスト範囲、手法の詳細、脆弱性情報とリスク評価が含まれます。ペネトレーションテストを数週間から数時間に短縮する AWS Security Agent の利便性がさらに向上しました。
    • AWS Partner Central にて AI エージェント機能を一般提供開始
      AWS Partner Central にて、Amazon Bedrock AgentCore 上に構築された AI エージェント機能が一般提供開始されました。パートナーの営業チームに対してパイプラインインサイト、カスタマイズされた営業プレイ、次のステップの推奨をオンデマンドで提供します。会議のトランスクリプトやメモを共有するとエージェントが自動的にフィールドを入力し、案件を進めます。MCP を通じたプログラマティックなアクセスにも対応しており、CRM システムからの利用も可能です。

今週は以上です。それでは、また来週お会いしましょう!

著者について

Wataru Mikuriya

三厨 航  (Wataru MIKURIYA)

AWS Japan のソリューションアーキテクト (SA) として、ヘルスケア・ハイテク製造業のお客様のクラウド活用を技術的な側面・ビジネス的な側面の双方から支援しています。クラウドガバナンスや IaC 分野に興味があり、最近はそれらの分野の生成 AI 応用にも興味があります。最近の趣味はカメラです。週刊 AWS の新しいサムネイルを撮影したので、是非ご覧ください。