Amazon Web Services ブログ

Amazon Bedrockの画像生成AIテクノロジーを活用して新規製品開発の企画構想を充実させよう

みなさん、こんにちは!製造業のお客様を中心に技術支援を行っているソリューションアーキテクトの山田です。

前回こちらのブログで、AWS の生成系 AI サービス・ Amazon Bedrock の Claude v2 ( by Anthropic 社) モデルを指定して、 Playgrounds のチャット機能を手軽に使用し、設計開発ドキュメントを効率的に作成する方法について解説しました。

本ブログでは、Amazon Bedrock の Stable Diffusion XL v0.8 ( by Stability AI 社) モデルを指定して、 Playgrounds の画像生成機能を手軽に使用する方法について解説します。

今回は製造業で新規プロダクト開発の企画に関わる方(商品企画部門、マーケティング部門、営業部門、設計開発部門など)を想定ユーザーとして設定させていただきました。本サービスを活用して、新規プロダクトのイメージ共有の品質・効率が良くなることを実感いただけるような構成になっています。

なお、本ブログの内容は2023年11月16日時点の内容に基づいて実行しています。執筆段階では東京リージョンにおいては Playgrounds の画像生成機能は利用できません。 現時点で Stable Diffusion XL v0.8 モデルが利用できる北米のバージニア北部リージョンで試行を行います。また、 Amazon Bedrock は日々進化しており、ブログ作成段階ではできなかったことも、ブログを読んでいただいた時点ではできるようになっている場合もありますのでご注意ください。

取り組む内容

新規プロダクト開発のプロセスは企画から始まります。企画のフェーズにおいては、市場調査や、デザインシンキング手法を用いるなどして、新しいコンセプトの製品を発案します。その製品のコンセプトは「誰のどのような課題を解決したいのか」といったような形で言語化することによってメンバー間でロジカルに共通認識を持ってもらうことが可能になります。望ましくは、さらに完成品のイメージをビジュアルで具体的に表現し、感情面にも訴えかけることで共通認識はさらに強固なものとなります。

しかし、企画の段階でわざわざ 3D CAD(Computer Aided Design) を用いてリアリティのある製品イメージを描くのは労力を要します。ポンチ絵のスケッチで表現する場合は比較的短時間で仕上がりますが、画力の高いメンバーが参画しているような状況でもない限り、クオリティ面でイメージ共有が十分ではない恐れがあります。そもそも企画段階でまだ存在していない製品に対して、言語化はできてもそこまで明確なイメージを描けないケースも多いのではないでしょうか。

解決策として、Amazon Bedrock の Stable Diffusion XL v0.8 ( by Stability AI 社) の Text to Image 機能を活用した画像生成にトライしてみたいと思います。 AI にイメージが不十分な部分も補ってもらいつつ、短時間でリアリティのある製品イメージを表現することを目指します。

新規プロダクト開発の対象として、今回は、空を飛んで撮影することはもちろん、海や川や湖にも潜り込んで撮影できるタコ型ドローンのデザインを検討したいと思います。

実行方法

まずマネジメントコンソール上部の検索バーで、「bedrock」などと打ち込んでいただくと、 Amazon Bedrock が候補に表示されます。クリックしてサービス画面に移行してください。

サービス画面に移行すると、画面左に Playgrounds という項目が表示されます。今回は Image 機能にアクセスしてみましょう。

Stable Diffusion XL v0.8(SDXL 0.8)というモデルを使用しますが、初期状態ではモデルアクセスへの権限が与えられていない状態のため、権限付与設定を行います。詳細についてはこちらのブログを参照して実行してください。

無事権限付与が完了すると、以下画面のように SDXL 0.8 が設定されており利用可能な状態になっています。

画面右側のほうにある「Inference configuration(推論設定)」の各パラメータはそれぞれ以下のような意味を持ちます。

  • Prompt strength(プロンプトの強さ) – 最終画像がプロンプトをどの程度描写するかを決定します。
  • Generation step(生成ステップ) – 画像がサンプリングされる回数。 ステップ数が多いほど、より正確になる可能性があります。
  • Seed(シード) – 初期ノイズを決定します。 同じシードを同じ設定で使用すると、同様のイメージが作成されます。

今回は全てのパラメータでデフォルト設定の数値を適用します。

事前の設定が済めば、文章を打ち込みます。SDXL 0.8 のサポート言語は英語となっているため、以降の試行は英語で行います。Amazon Bedrock の別の基盤モデルである Claude の Playground でサクッと「日本語 →英語のプロンプト」に翻訳できるため、必要に応じてそちらもご活用ください。Claude の Playground の解説についてはこちらのブログをご参照ください。

まずは Prompt 枠で、試しに 「drone」 と打ち込みました。すると以下のような画像が数秒で生成されました。これはよく見慣れた形のドローン画像ですね。

それでは次に新規プロダクトのタコ型ドローン画像を生成しましょう。「octopus-shaped drone」と打ち込みます。

既存のドローンと比べて、タコ型ドローンらしい形の画像が生成されました。背景も海になっており、プロダクトの活用イメージが湧きやすいですね。

ここから Stability AI 社のプロンプトガイド を参考に、プロンプトエンジニアリング(AI から望ましい出力を得るために指示を工夫すること)によって生成画像のチューニングを行っていきたいと思います。

先ほどの「drone」や「octopus-shaped drone」は、Stability AI 社のプロンプトガイド でいう、1. Core Prompt に該当します。Core Prompt とは、生成画像の中心的なテーマ、主題を表します。

ここから、Stability AI 社のプロンプトガイド でいう、2. Style の要素をプロンプトに加えましょう。Style とは、Core Prompt の仕上がりを指定する修飾子のような意味を持ちます。プロンプトガイドでは、 Realistic(現実的な) , Oil painting(油絵) , Pencil drawing(鉛筆画) , Concept art(コンセプトアート) といった例が挙げられており、Core Prompt と Style をカンマ区切りで記載する方法が紹介されています。

これらを参考に、タコ型ドローンの Style を以下バリエーションで試行しました。

「octopus-shaped drone, best quiality」

「octopus-shaped drone, masterpiece」

「octopus-shaped drone, hard surface」

「octopus-shaped drone, super fine concept art」

「octopus-shaped drone, extremely detailed」

「octopus-shaped drone, realistic」

いかがでしょうか。プロダクトのビジュアルイメージが湧いたのはもちろんのこと、企画メンバーだけでは想像もつかなかった様々なデザインが AI によって短時間で複数提示されて比較検討もできたので、今後設計を行なっていく上でよりアイデアが洗練されたのではないでしょうか。もしまだ物足りなければ Stability AI 社のプロンプトガイド を参考にさらにチューニングを重ね、多数決を採るなどしてデザイン案を絞り込んでいきましょう。

ただし、Text to Image AI による画像生成だけでは詳細のデザインや寸法の調整はきめ細かくできないため、企画の次のステージにあたる設計フェーズでは人間によるオペレーションで 3D CAD を用いた製図が必要になります。また、プロダクトとしての機能実現や品質確保のために、 CAE(Computer Aided Engineering) を用いた流体・構造解析なども必要となります。AWS ではそういったエンジニアリングに関するハイパフォーマンスコンピューティングなどのクラウドソリューションも提供していますので、こちらも興味ありましたらご参照ください。

著者プロフィール

山田 航司 (Koji Yamada @yamadakj)
アマゾン ウェブ サービス ジャパン合同会社 ソリューションアーキテクト

製造業のお客様を中心にクラウド活用の技術支援を担当しています。好きな AWS のサービスは Amazon Transcribe です。

愛読書は「大富豪トランプのでっかく考えて、でっかく儲けろ」です。