Amazon Web Services ブログ

Luma AI の Ray2 動画モデルが Amazon Bedrock で利用可能に

AWS re:Invent 2024 で事前に発表したように、Amazon Bedrock の Luma AI Ray2 動画モデルを使用して、テキストから高品質の動画クリップを生成できるようになりました。静的なコンセプトから魅力的なモーショングラフィックを作成していただけます。AWS は Luma AI のフルマネージドモデルを提供する、最初かつ唯一のクラウドプロバイダーです。

2025 年 1 月 16 日、Luma AILuma Ray2 を発表しました。これは、テキストによる指示を深く理解した上で、一貫性のある自然な動きを使用してリアルなビジュアルを作成できる、大規模な動画生成モデルです。Luma Ray2 は、Luma の新しいマルチモーダルアーキテクチャでトレーニングを受けた結果、高度な機能を発揮するようになりました。Ray1 の 10 倍の計算量までスケールできるため、540p と 720p の解像度で、一貫性のある高速な動き、非常にリアルなディテール、論理的なイベントシーケンスを表示する 5 秒または 9 秒の動画クリップを作成できます。

Luma Ray2 in Amazon Bedrock を使用すると、生成 AI アプリケーションのテキストから生成された、すぐに使える高品質でリアルな動画を、単一の API を介して追加できます。Luma Ray2 動画モデルは、人、動物、物体の相互作用を理解します。また、最先端の自然言語による指示の理解と推論を通じて、一貫性のある物理的精度が高いキャラクターを作成できます。

Ray2 動画生成は、コンテンツ制作、エンターテインメント、広告、メディアのユースケースに使用することができ、コンセプトから実行までのクリエイティブプロセスを合理化します。各シーンの意図する感情に沿った、映画のようになめらかでリアルなカメラの動きを生成できます。さまざまなカメラアングルやスタイルをすばやく試して、建築、ファッション、映画、グラフィックデザイン、音楽などのクリエイティブなアウトプットを生み出すことが可能です。

Luma が公開している Luma Ray2 の印象的な動画生成をご覧ください。

Amazon Bedrock での Luma Ray2 モデルの開始方法
Luma モデルを初めて使用する場合は、使用を開始する前に Amazon Bedrock コンソールにアクセスして、左下のペインで [モデルアクセス] を選択してください。最新の Luma AI モデルにアクセスするには、Luma AI で Luma Ray2 へのアクセスをリクエストしてください。

Amazon Bedrock で Luma AI モデルをテストするには、左側のメニューペインの [プレイグラウンド][画像/動画] を選択します。[モデルを選択] を選択し、カテゴリとして [Luma AI] を選択し、モデルとして [Ray] を選択します。

動画生成モデルには、生成されたすべての動画を保存するための Amazon Simple Storage Service (Amazon S3) バケットが必要です。このバケットはお客様の AWS アカウントで作成され、Amazon Bedrock にはそのバケットに対する読み取りおよび書き込み許可が付与されます。[確認] を選択してバケットを作成し、動画を生成します。

ここではプロンプト用に、720P、24フレーム/秒、アスペクト比 16:9 の 5 秒の動画を生成します。

プロンプトと生成された動画の例を次に示します。これを S3 バケットに保存してダウンロードできます。
宇宙粒子の中を泳ぐザトウクジラ

Ray2 モデルでできることを示す、もう 1 つの注目の例を次に示します。
プロンプト 1: ミニチュアの子猫が人間の指先の表面を歩いたり探検したりしている

プロンプト 2: 逆光に照らされた森に浮かぶ巨大な水の球

プロンプト 3: サックスを演奏する男性 (作成者: @ziguratt )

プロンプト 4: 受粉中のミツバチのマクロクローズアップ

その他の例と生成された動画を確認するには、Luma Ray2 ページをご覧ください。

また、Bedrock コンソールで[API リクエストを表示] を選択すると、AWS コマンドラインインターフェイス (AWS CLI) や AWS SDK でコードサンプルを使用してモデルにアクセスすることもできます。luma.ray-v2:0 をモデル ID として使用できます。

AWS CLI コマンドのサンプルを次に示します。

aws bedrock-runtime invoke-model \
    --model-id luma.ray-v2:0 \
    --region us-west-2 \
    --body "{\"modelInput\":{\"taskType\":\"TEXT_VIDEO\",\"textToVideoParams\":{\"text\":\"a humpback whale swimming through space particles\"},\"videoGenerationConfig\":{\"seconds\":6,\"fps\":24,\"dimension\":\"1280x720\"}},\"outputDataConfig\":{\"s3OutputDataConfig\":{\"s3Uri\":\"s3://your-bucket-name\"}}}"
     invoke-model-output.txt
Bash

Converse API サンプルを使用し、AWS SDK を活用して動画を生成し、さまざまなプログラミング言語を使用してアプリケーションを構築できます。

今すぐご利用いただけます
Luma Ray2 動画モデルは、1 月 16 日、米国西部 (オレゴン) AWS リージョンの Amazon Bedrock で一般公開されています。今後の最新情報については、詳細なリージョンリストをご確認ください。詳細については、Luma AI in Amazon Bedrock 製品ページと Amazon Bedrock の料金ページをご覧ください。

Amazon Bedrock コンソール で Luma Ray2 を今すぐお試しいただき、AWS re:Post for Amazon Bedrock に、または AWS サポートの通常の連絡先を通じて、ぜひフィードバックをお寄せください。

Channy

原文はこちらです。