Amazon Web Services ブログ

週刊生成AI with AWS – 2026/2/2 週

みなさん、こんにちは。AWS ソリューションアーキテクトの三厨です。

今年の目標は Kiro にどんどん業務をオフロードしていくことです。早速 Kiro を使って Strands Agent SOPs を作成してステアリングファイルとして利用してみましたが、複雑なワークフローでのエージェントの振る舞い記述を標準化できて便利ですね。

また、2月の Builder’s Flash も公開されております。生成 AI に関連する記事をピックアップしてみましたので、是非ご覧ください。

エージェント自体の開発だけでなく、ユースケースを掘り下げる記事も公開されていますね。

新たに発表された「フィジカル AI 開発支援プログラム」をはじめとした各種「AWS ジャパン生成 AI 実用化推進プログラム」も引き続き募集しております。特に「フィジカル AI 開発支援プログラム」は応募締め切りが2026年2月13日までとなっているので、ご興味のある方はぜひご確認ください。

それでは、2 月 3 日週の生成 AI with AWS界隈のニュースを見ていきましょう。

さまざまなニュース

      • AWS生成AI国内事例ブログ: 地方病院が生成 AI の活用環境を2日で構築し内製化へ踏み出す
        熊本中央病院様は、ANGEL Dojo 2025 で医療文書作成時間の削減に取り組み、月 800 時間の効率化が見込めるシステムを構築されました。しかし、電子カルテ端末からクラウドへの安全な接続と、電子カルテからのデータ抽出という2つの壁がありました。ispec様のCloudSailとAWSを組み合わせることで、2 日間という短期間で環境構築を完了し、翌日には職員を対象に 50 名以上が参加するハンズオンを実施しました。生成 AI により実装の速度やコストが低減していく中で、「やらなければいけないこと」にフォーカスして課題の特定と解決を迅速に実行した事例となっています。
      • 開催報告「11 社合同 AI-DLC Unicorn Gym で体験した開発のパラダイムシフト」を公開
        2026年1月22日〜23日の2日間、AWS Loft Tokyo にて 11 社 87 名のエンジニア・ビジネスパーソンが参加した合同 AI-DLC Unicorn Gym の開催報告です。AI 駆動開発ライフサイクル(AI-DLC)は、AIを開発プロセスの中心に据えた新しい開発手法で、「AIが実行し人間が監視する」というアプローチを取ります。AI-DLC は特定のツールに依存せず、ウォーターフォールやアジャイルのような開発方法論をアップデートし、AI による変革を実現するためのガイドラインです。参加企業は当初 8 週間から 6 ヶ月を想定していた開発を 2 日間で完了させ、満足度は 5 点満点中 4.56 点、98.8 %が肯定的な評価を寄せました。
      • 開催報告「第9回鉄道技術展2025 AWS出展報告」を公開
        2025年11月26日から29日に開催された鉄道技術展 2025 での AWS 出展報告です。「クラウドと AI で変革する鉄道保全」をテーマに、IoT と生成 AI を活用したソリューションを紹介しました。AWS IoT Services によるリアルタイムの IoT 設備状態把握、Amazon Bedrock Knowledge Bases を活用した異常発生時の初動調査支援、Amazon Bedrock AgentCore による関係システムの情報把握支援という3つの柱で構成され、鉄道保全現場が抱える労働力不足や技術継承といった課題に対応します。
      • ブログ記事「Kiro で Opus 4.6 が利用可能になりました」を公開
        Kiro IDE と CLI で Anthropic の最新モデル Claude Opus 4.6 が利用可能になりました。Opus 4.6 は Anthropic がこれまでにリリースした最も強力なモデルであり、コーディングにおいては世界最高のモデルです。大規模なコードベースや長期プロジェクトで優れた性能を発揮し、シニアエンジニアが複雑なタスクを Opus 4.6 に任せることで、数日かかるプロジェクトを数時間で完了できます。Kiro の仕様駆動型開発プロセスに最も適したモデルとして、実験的サポートとして提供されます。
      • ブログ記事「AI を活用したゲーム制作: 静的なコンセプトからインタラクティブなプロトタイプへ」を公開
        AWS re:Invent 2025 で紹介された Agentic Arcade の技術アーキテクチャを解説しています。参加者が AI で数分で完全にプレイ可能なゲームプロトタイプを作成できるインタラクティブなデモ体験で、Amazon Bedrock AgentCore によるマルチエージェントオーケストレーション、 ComfyUI によるプログラマティックアセット生成、セマンティック検索を組み合わせています。 AI がゲームのコンセプト化をプロセスの早い段階でインタラクティブにすることで、初期段階の開発を変革する方法を示しています。
      • ブログ記事「AI エージェントをプロトタイプから製品へ: AWS DevOps Agent 開発で得た教訓」を公開
        re:Invent 2025 で発表された AWS DevOps Agent の開発で学んだ、実用的なエージェント製品を構築するために必要な5つのメカニズムを紹介しています。評価テスト(evals)の実施、エージェントの軌跡をデバッグする可視化ツール、高速なフィードバックループ、意図を持った変更、本番環境のサンプルの定期的な確認です。LLM を使ったプロトタイプ構築は参入障壁が低いものの、多様な顧客環境で確実に動作する製品へと進むのは全く別のチャレンジであることを示しています。
      • ブログ記事「オブザーバビリティエージェントで平均復旧時間を短縮する」を公開
        Amazon OpenSearch Service と Amazon Bedrock AgentCore を使用したオブザーバビリティエージェントを紹介しています。ログ、トレース、メトリクスの各シグナルタイプに対応する MCP サーバーを構築し、エージェントが複数のクエリや相関サイクルを処理して根本原因の特定やインサイト取得を高速化します。 SRE やオペレーションセンターの担当者が複数のダッシュボードを行き来する手動プロセスを、 AI エージェントが体系的に調査することで平均復旧時間(MTTR)を短縮できます。
      • ブログ記事「フィジカル AI: 自律型インテリジェンスに向けた次なる基盤を築く」を公開
        AWSのフィジカル AI フレームワークを紹介する複数回ブログシリーズの導入記事です。フィジカル AI を物理世界と相互作用するために知覚、理解、推論、学習を統合したハードウェアとソフトウェアのシステムと定義し、6つの相互接続された機能(物理世界の接続とデジタル化、データの保存と構造化、データのセグメント化と理解、シミュレーション・トレーニング・モデル最適化など)を通じて、デジタルインテリジェンスと物理的アクションの間に継続的な学習サイクルを作り出す方法を説明しています。
      • ブログ記事「AI による物理的な現実世界の進化: インテリジェントな自動化の最前線」を公開
        AWS Generative AI Innovation Center が MassRobotics と NVIDIA と協業して立ち上げた Physical AI Fellowship を紹介しています。フィジカル AI は、アルゴリズムがデジタルの境界を超え、物理世界を認識し、理解し、操作するもので、各業界の運営方針を根本的に変えます。記事では自動化の4段階(基本的な自動化、適応的自動化、自律的自動化、完全な自律性)を定義し、AI ロボット分野が2034年までに1,242.6億ドルに達すると予測しています。Amazon のサプライチェーンでは効率を25%向上、Foxconn は製造デプロイ時間を40%削減、ヘルスケアでは AI 支援手術により合併症発生率が30%減少するなど、具体的な成果を示しています。
      • ブログ記事「VAMS における NVIDIA Isaac Lab を使用した GPU アクセラレーション型ロボットシミュレーショントレーニング」を公開
        オープンソースの Visual Asset Management System(VAMS)が NVIDIA Isaac Lab と統合され、ロボットアセット向けの GPU アクセラレーション強化学習(RL)に対応しました。実世界でロボットをトレーニングするのは遅く、コストがかかり、危険を伴いますが、Isaac Lab は単一の GPU 上で数千のロボットインスタンスを並列実行でき、実世界で数か月かかるトレーニングが数時間のシミュレーション時間に圧縮されます。VAMS の Isaac Lab パイプラインアドオンは、アセット管理システムと直接統合することで、ロボットモデルからトレーニング済みポリシーまでのシームレスなパスを作成し、 GPU インスタンス管理やコンテナオーケストレーション、手動のデータ転送を不要にします。
      • ブログ記事「フィジカル AI の実践: 人間と機械の相互作用を支える技術基盤」を公開
        フィジカル AI の完全な開発ライフサイクルを解説しています。データの収集と準備、モデルのトレーニングとファインチューニング(模倣学習、強化学習、シミュレーション、ワールドモデリング)、モデルの最適化(量子化、プルーニング、蒸留、コンパイル)、エッジ操作という反復的なプロセスを通じて、人間と真のパートナーシップを築くインテリジェントシステムを作成します。実例として、Diligent Robotics の Moxi ロボットが病院環境で看護師の日常的な物流業務を処理し、患者ケアに貴重な時間を取り戻している事例を紹介しています。
      • ブログ記事「知的なフィジカル AI 構築: Strands Agents、Bedrock AgentCore、Claude4.5、NVIDIA GR00T、および Hugging Face LeRobot によるエッジからクラウドへ」を公開
        エージェンティック AI システムが物理世界へ拡大する中、エッジとクラウドのハイブリッドアーキテクチャの重要性を解説しています。ボールをキャッチするロボットアームのようなミリ秒単位の応答が必要な動作はエッジで処理し、複数ステップのタスク計画や他のロボットとの連携、集合的な経験からの学習はクラウドで処理します。Strands Agents Python SDK を使用して、Ollama でエッジデバイス上でローカルにモデルを実行することから始め、段階的にクラウドの高度な推論能力を統合する進歩的なアプローチを示しています。
      • ブログ記事「AI を具現化するブログ: パート1 AWS Batch でロボット学習を開始する」を公開
        AWS 上で NVIDIA Isaac GR00T N1.5 3B をファインチューニングするためのスケーラブルなインフラストラクチャを構築する方法を紹介しています。GR00T N1.5 は実世界のデモンストレーション、Isaac Labからの合成データ、インターネット規模のビデオでトレーニングされた汎用基盤モデルで、様々なタスクと実装を超えた強力な汎化能力を提供します。AWS Batch、Amazon S3、Amazon EFS、Amazon ECRを組み合わせたアーキテクチャにより、GPU付きEC2インスタンスを動的にプロビジョニングし、トレーニングワークロードを実行します。クラウドの弾力性とNVIDIAの先進的なロボット学習スタックを組み合わせることで、開発サイクルを加速します。
  •  

サービスアップデート

    • Amazon BedrockでClaude Opus 4.6が利用可能に
      Amazon BedrockでClaude Opus 4.6のサポートが開始されました。Anthropicによると、Opus 4.6は同社の最も高性能なモデルであり、コーディング、エンタープライズエージェント、プロフェッショナルワークにおいて世界最高のモデルです。エージェントワークフローでは数十のツールにわたる複雑なタスクを業界最高レベルの信頼性で管理し、プロアクティブにサブエージェントを起動して少ない監視で動作します。開発者は長期プロジェクト、複雑な実装、大規模コードベースに活用でき、200Kと1Mコンテキストトークン(プレビュー)をサポートします。
    • Amazon SageMaker JumpStartでDeepSeek OCR、MiniMax M2.1、Qwen3-VL-8B-Instructモデルが利用可能に
      Amazon SageMaker JumpStartでDeepSeek OCR、MiniMax M2.1、Qwen3-VL-8B-Instructの3つのモデルが利用可能になりました。DeepSeek OCRはドキュメント処理用のビジュアルテキスト圧縮を探求し、フォーム、請求書、図、複雑なドキュメントから構造化情報を抽出できます。MiniMax M2.1はコーディング、ツール使用、指示追従、長期計画に最適化されており、多言語ソフトウェア開発の自動化や複雑な複数ステップのオフィスワークフローを実行します。Qwen3-VL-8B-Instructは優れたテキスト理解と生成、深い視覚的知覚と推論、拡張されたコンテキスト長、強化された空間とビデオダイナミクスの理解、より強力なエージェントインタラクション機能を提供します。
    • Amazon SageMaker JumpStartでCartesia Sonic 3テキスト読み上げモデルが利用可能に
      Amazon SageMaker JumpStartでCartesiaのSonic 3モデルが利用可能になりました。Sonic 3はストリーミングテキスト読み上げ(TTS)用の最新ステートスペースモデル(SSM)で、高い自然さ、正確なトランスクリプト追従、業界最高レベルのレイテンシーを実現し、音量、速度、感情のきめ細かい制御を提供します。42言語をサポートし、APIパラメータとSSMLタグを通じた高度な制御性を提供します。100ms未満のレイテンシーで、感情やトーンの変化を含む人間の音声のニュアンスを捉えるリアルタイム会話AIを実現します。
    • Amazon SageMaker JumpStartでNVIDIA NIMsモデルが利用可能に
      Amazon SageMaker JumpStartで、バイオサイエンスとフィジカルAI向けに構築された4つのNVIDIA NIMsモデル(ProteinMPNN、Nemotron-3.5B-Instruct、MSA Search NIM、Cosmos Reason)がワンクリックデプロイ可能になりました。ProteinMPNNは構造データに基づくタンパク質配列最適化を実現し、MSA Search NIMはGPU加速された複数配列アライメントをサポートします。Nemotron-3.5B-Instructは256kトークンのコンテキストウィンドウで高い推論性能とネイティブツール呼び出しサポートを提供し、Cosmos ReasonはフィジカルAIとロボティクス向けのオープンでカスタマイズ可能な推論ビジョン言語モデルです。
    • Amazon BedrockでStructured Outputsが利用可能に
      Amazon BedrockでStructured Outputsのサポートが開始されました。定義したJSONスキーマに準拠した一貫性のある機械可読な応答を基盤モデルから取得できます。有効なJSONをプロンプトで要求したり、アプリケーションに追加のチェックを加える代わりに、必要な形式を指定するだけで、それに一致する応答を受け取れます。キーフィールドの抽出やAPIまたはツールを使用するワークフローの駆動など、小さなフォーマットエラーが下流システムを壊す可能性がある本番タスクに役立ちます。Anthropic Claude 4.5モデルと一部のオープンウェイトモデルで一般提供されており、Amazon Bedrockがサポートされているすべての AWS リージョンで利用可能です。
    • Amazon Bedrock AgentCore BrowserでBrowser Profilesをサポート
      Amazon Bedrock AgentCore BrowserでBrowser Profilesのサポートが開始されました。繰り返しログインフローなしで、複数のブラウザセッション間で認証状態を再利用できます。1日に数百または数千の自動ブラウザセッションを処理するエンタープライズ顧客にとって、セッションセットアップ時間を数分から数十秒に短縮します。Webサイトに一度認証してセッションをブラウザプロファイルに保存すると、そのプロファイルを使用して新しいセッションを開始した際に認証状態が保持され、ログイン状態が維持されます。読み取り専用と永続的な操作の両方に対応する柔軟なセッションモードを選択でき、複数のセッションが同じプロファイルを同時に使用する並列処理が可能です。アジアパシフィック(東京)リージョンをはじめとした 14 の AWS リージョンで利用可能です。
    • Amazon EC2 Capacity Blocks for MLが複数アカウント間で共有可能に
      Amazon EC2 Capacity Blocks for MLのクロスアカウント共有機能が一般提供されました。AWS Resource Access Manager(RAM)を使用して、予約されたGPU容量をAWSアカウント間で共有でき、利用率の最適化とコスト削減に役立ちます。組織はCapacity Blocksを購入して複数のアカウントにプロビジョニングでき、異なるワークロードが予約容量のプールに追加コストなしでアクセスできます。チームがMLインフラストラクチャ投資を調整し、予約されたGPU容量を異なるワークロード間で継続的に使用し続けることができます。EC2 Capacity Blocks for MLが提供されているすべてのAWSリージョンで利用可能です。
    • Amazon EC2 G7eインスタンスが米国西部(オレゴン)リージョンで利用可能に
      NVIDIA RTX PRO 6000 Blackwell Server Edition GPUを搭載したAmazon EC2 G7eインスタンスが米国西部(オレゴン)リージョンで利用可能になりました。G7eインスタンスはG6eと比較して最大2.3倍の推論性能を提供します。大規模言語モデル(LLM)、エージェントAIモデル、マルチモーダル生成AIモデル、フィジカルAIモデルのデプロイに使用でき、空間コンピューティングワークロードおよびグラフィックスとAI処理の両方の機能を必要とするワークロードで最高のパフォーマンスを提供します。最大8つのNVIDIA RTX PRO 6000 Blackwell Server Edition GPU(GPU当たり96 GBのメモリ)と第5世代Intel Xeonプロセッサを搭載しています。現在 G7e インスタンスは米国東部(バージニア北部)、米国東部(オハイオ)、米国西部(オレゴン)のAWSリージョンで利用可能です。

今週は以上です。それでは、また来週お会いしましょう!

著者について

Wataru Mikuriya

三厨 航  (Wataru MIKURIYA)

AWS Japan のソリューションアーキテクト (SA) として、ヘルスケア・ハイテク製造業のお客様のクラウド活用を技術的な側面・ビジネス的な側面の双方から支援しています。クラウドガバナンスや IaC 分野に興味があり、最近はそれらの分野の生成 AI 応用にも興味があります。最近の趣味はカメラです。週刊 AWS の新しいサムネイルを撮影したので、是非ご覧ください。