Amazon Web Services ブログ
Strands Labs の紹介: エージェント開発の最先端実験的アプローチを今すぐ体験
本記事は 2026/02/23 に公開された “Introducing Strands Labs: Get hands-on today with state-of-the-art, experimental approaches to agentic development” を翻訳したものです。
私たちは、開発者がエージェンティック AI 開発のための実験的な最先端のアプローチを実際に試せるように設計された新たな Strands GitHub 組織である Strands Labs を紹介します。Python と TypeScript 両方で利用可能な Strands Agents SDK は、2025 年 5 月のオープンソースリリース以降、開発者コミュニティで大きな支持を集めています。SDK は 1400 万回以上ダウンロードされており、AWS チームは新しい機能を積極的に追加しています。これには、Steering のような実験も含まれています。これは、非常に活発な開発者コミュニティをサポートするためのものです。Strands のモデル駆動型アプローチは、プロトタイピングからエンタープライズの本番ワークロードまで、シンプルで強力かつスケーラブルであることが実証されています。Strands とモデル駆動型アプローチの詳細については、こちらをご覧ください。
私たちは、実験を通じてイノベーションを促進し、エージェンティック開発の最前線を押し進めるために、Strands Labs を別の GitHub 組織にすることを選びました。また、Amazon 全体のすべての開発チームに Strands Labs を開放しました。これは、すべてのチームが革新的なオープンソースプロジェクトに貢献し、コミュニティからの利用とフィードバックを得られます。このモデルは、Strands SDK とその本番リリースサイクルから実験を分離して、Strands の開発者コミュニティのより速い実験、学習、成長を促進します。Strands-Labs のすべてのプロジェクトは、明確なユースケース、機能的なコード、テストとともに提供される予定です。
ローンチ時に、Strands Labs は 3 つのプロジェクトで利用可能になります。最初のプロジェクトは Robots、2 番目のプロジェクトは Robots Sim、そして 3 番目のプロジェクトは AI Functions です。
- Robots: Robots では、AI エージェントがエッジや物理世界にどのように拡張されるかを見ていきます。ここでは、AI エージェントは情報を処理するだけでなく、私たちの周りの物理環境と相互作用します。統一された Strands Agents インターフェースを通じて、フィジカル AI エージェントは AI 機能を物理センサーやハードウェアに直接接続することで、多様なロボットを制御できます。
- Robots Sim: Robots Sim は、エージェンティックロボットをシミュレートされた 3D 物理学対応の世界と統合します。これにより、物理的なロボットハードウェアを必要とせず、安全なシミュレーション環境で迅速なプロトタイピングとアルゴリズム開発が可能になります。これは、エージェント戦略の反復や Vision-Language-Action(VLA)モデルポリシーのテストに最適です。また、実環境の展開前のアプローチの検証にも適しています。
- AI Functions: AI Functions では、開発者はコードの代わりに自然言語仕様を使用してエージェントを定義します。動作を検証し、実装を生成する事前・事後の条件は Python で書きます。この実験は、LLM でコードを生成する際の信頼ギャップを狭めることを目指しています。開発者の時間を意図の検証に集中させ、残りはフレームワークに委ねます。
これらの各プロジェクトがエージェンティック開発の最前線をどのように押し進めているかを以下で詳しく見ていきましょう。
Strands Robots
エージェンティック AI システムは急速にデジタル世界を超えてフィジカル領域に拡大しています。ここで AI エージェントは実際の環境で知覚、推論、そして行動します。AI システムがロボティクス、自律車両、スマートインフラを通じてフィジカル世界と相互作用するにつれて、基本的な疑問が浮かび上がります:物理的なセンシングやアクチュエーションに必要なミリ秒単位の応答性を維持しながら、複雑な推論のために大規模なクラウドコンピューティングを活用するエージェントを、どのように構築すればよいのでしょうか?
Strands Robots は、オーケストレーション、インテリジェンス、そしてインフラストラクチャレイヤーを提供し、個々のエッジデバイスをエージェントと連携してフィジカル AI システムへと変換します。このプロジェクトを通じて、私たちの目標は、シンプルな API、オープンソースライブラリ、そしてマネージドサービスを通じてフィジカル AI を民主化することです。
Strands Robots は、Strands Agents の機能を拡張して、AI エージェントが物理センサーやハードウェアに接続する統一的な Strands Agents インターフェースを通じて物理ロボットを制御できるようにします。また、物理的なロボットハードウェアを必要とせずに、安全なシミュレーション環境で迅速なプロトタイピングとアルゴリズム開発を可能にします。これは、エージェント戦略の反復、VLA ポリシーのテスト、実世界への展開前のアプローチ検証に最適です。
このラボデモンストレーションでは、SO-101 ロボットアームが NVIDIA GR00T ビジョン言語アクションモデル(VLA)と連携して操作を処理します。VLA モデルは、単一のモデルで視覚的知覚、言語理解、そしてアクション予測を組み合わせます。GR00T はカメラ画像、ロボットの関節位置、言語命令を入力として受け取り、直接新しいターゲット関節位置を出力します。NVIDIA とのパートナーシップにより、NVIDIA GR00T を Strands Agents と統合しました。これにより、SO-101 ロボットアームを制御するデモンストレーションを NVIDIA Jetson エッジハードウェア上で実行しました。これは、高度な AI 機能が組み込みシステム上で直接実行できることを示しています。
さらに、私たちは Hugging Face の LeRobot と統合しました。これは、ロボットハードウェアの作業を容易にするデータとハードウェアインターフェースを提供します。LeRobot のようなハードウェア抽象化と VLA モデル(例:NVIDIA GR00T)を組み合わせることで、フィジカル世界で知覚、推論、行動するエッジ AI アプリケーションを作成できます。
この取り組みの一環として、ビルダーにとってこれをより簡単にするために、私たちは VLA モデル(例:NVIDIA GR00T)のようなハードウェアに接続するためのシンプルなインターフェースを備えた実験的な Robot クラスをリリースしました。例えば、SO-101 ロボットアームと NVIDIA GR00T VLA モデルを組み合わせて、リンゴをバスケットに拾って置くなどのタスクを実行するには、エッジデバイス上にエージェントをデプロイします。Strands Robot クラスは以下のように使用できます:
エッジデバイス上で実行される Robot クラスは、必要に応じて LLM やその他のモデルを使用してクラウドに複雑な推論を委任できます。VLA モデルは物理的なアクションに対してミリ秒レベルの制御を提供します。しかし、複数ステップのタスクの計画や過去のパターンに基づく決定の実施など、より深い推論が必要な場合は、クラウドベースのエージェントに相談できます。
Strands Robot Sim
Strands Robot Simulation は、物理的なロボットハードウェアを必要とせずにエージェンティックロボティクスの迅速なプロトタイピングのための環境を提供します。これは、Libero ベンチマーク環境、ZMQ を介した isaac-GR00T VLA ポリシーサポート、VLA プロバイダーのための拡張可能なインターフェース、MP4 ビデオとしてのシミュレーションエピソードのキャプチャ、ステータスモニタリング付きの非ブロッキングシミュレーション、依存関係不要の高速テスト、そして GR00T 推論サービス管理をサポートします。このシミュレーションプロジェクトは、最終結果を含む完全なエピソード実行と、バッチごとの視覚的フィードバック付きの反復制御の 2 つの実行モードをサポートしています。Strands Robot Simulation のモジュラー設計により、開発者はコアロジックを再構築することなく、ポリシー実装やシミュレーション環境を交換できます。制御ループはステップを順次実行し、カメラや関節センサーから観測を収集し、このデータを固定サイズのアクションホライズン内でモーターコマンドを生成するポリシーモデルに供給します。
例えば、以下の例は、strands_robots_sim から SimEnv クラスを利用して、NVIDIA GR00T によって生成されたポリシーを用いて Libero 環境内でシミュレートされたロボットを制御する方法を示しています。この例では、以下の前提条件を満たしていることを想定しています:Libero がインストールされている、GR00T 推論サービスがポート 8000 で動作している、isaac-gr00t コンテナがアクセス可能な Docker が利用可能であることです。
AI Funcions
AI Functions は、コードを書く代わりに自然言語の仕様で Python 関数を書く新しい方法を導入します。@ai_function デコレータを使用して、説明と検証条件を通じて関数に何をさせたいかを定義します。AI Functions は Strands エージェントループを活用して実装を生成し、出力を検証し、検証に失敗した場合は自動的に再試行します。不明な形式のファイルからインボイスデータを読み込むことを考えてみましょう。従来のアプローチでは、ファイル形式を決定し、各形式に対して変換ロジックを書き、プロンプトを構築し、応答を解析し、検証に失敗した場合に再試行を調整する必要があります。これには通常何十行ものコードが必要で、すべてのシナリオを考慮できない場合があります。AI Functions を使用すると、望む出力を説明する小さな関数と、成功の様子を表現するバリデータ関数を書きます。LLM がファイル形式を決定し、変換コードを書き、実際の Python DataFrame オブジェクトを返します。
今後、Strands-Labs を通じて Strands 開発者コミュニティとより多くのプロジェクトを共有し、Strands をより良いものにするためのフィードバックを楽しみにしています。
エージェンティック AI の新たなアプローチを体験し、Strands Labs で今すぐ実験を始めましょう。