Amazon Web Services ブログ

Amazon Connect で簡単に実現する、生成 AI を活かしたより良いカスタマーエクスペリエンス

生成 AI は 2023 年の大半において注目のトピックであり、2024 年になってもその勢いは衰えていません。この驚くべき技術に対する新しいイノベーションと創造的なユースケースは日々生まれています。カスタマーエクスペリエンス (CX) のユースケースにおける生成 AI の可能性は明確で魅力的です。しかし、新しい魅力的なアイデアにも、責任を持って安全に使用する方法や、効果を最大化する方法についての考慮すべき事項があります。3 部構成のブログ投稿シリーズの第 1 部では、生成 AI がコンタクトセンターの運用に直近で影響を与えうる 3 つの主要な領域について説明しました。それはエージェントの効率性の向上、分析と品質モニタリングの改善、そして顧客セルフサービスの改善です。シリーズの第 2 部では、これら 3 つの領域についてより深く掘り下げ、生成 AI を活用する際に生じる可能性のある課題と、リスクを軽減しながら価値を最大化するためのアプローチ方法について説明しました。そして今回の第 3 部では、カスタマーサービスのユースケースに対して生成 AI を迅速かつ簡単に有効化する方法をご紹介します。

生成 AI についてカスタマーエクスペリエンス分野のお客様と議論する際、最もよく尋ねられる質問には、「自分でモデルをトレーニングせずに生成 AI を実装するにはどうすればよいですか?」「回答がハルシネーションやバイアス(偏見)を含まないようにするにはどうすればよいですか?」があげられます。これらは、生成 AI の実装において対処・軽減する必要がある非常に適切な懸念事項です。そして、これらの質問の後に続く懸念は、「難しそうですね!」というものです。少し状況を整理し、生成 AI を「実現する」さまざまな方法について話し合い、そして最良の部分に焦点を当てましょう:Amazon Web Services(AWS) の AI を活用したコンタクトセンターである Amazon Connect は、これらを簡単に実現してくれるのです!

生成 AI の技術スタック

生成 AI を採用する際には、スタックの 3 つの層を考慮する必要があります。まず、インフラストラクチャ (生成 AI が応答を作成するために使用する複雑なアルゴリズムを実行するための計算能力) があり、次に基盤モデル (FM) と大規模言語モデル (LLM) 自体の構築があり、一番上の層には、それらを利用したアプリケーションがあります。AWS は生成 AI スタックの 3 つの層それぞれでソリューションを提供しています。

Generative AI Stack

基盤モデルを使ったアプリケーション

生成 AI の最初の選択肢は、事前に構築されたアプリケーションです。Amazon QAmazon Q in Connect のようなアプリケーションは、事前構築されたモデルを使用しており、開発とデプロイに必要な時間と労力を大幅に削減します。これらは訓練済みの重みづけと設定を備えて提供されているため、ワークフローにすぐに統合できます。信頼できるソースからの事前構築モデルは、パフォーマンスや精度について、ベンチマークデータセットや実世界のアプリケーションで実証済みの場合が多く、ゼロから広範な検証とテストを行う必要なく、自信をもって生成 AI の能力を活用することができます。

高品質の生成 AI モデルをゼロから開発することは、専門知識、計算リソース、時間を必要とするリソース集約的な作業です。事前構築モデルの使用は、特に小規模なチーム、モデル開発のための豊富なリソースを持たない組織にとって、コスト効率がより高い可能性があります。事前構築モデルの使用は、時間の節約、コスト効率、パフォーマンスの保証、統合の容易さの面で大きな利点を提供します。これにより、チームは基盤モデル開発と最適化に時間を費やすのではなく、アプリケーション固有の機能、ユーザーインターフェース、またはビジネスロジックの開発により集中することができます。事前構築モデルの使用は、迅速なデプロイと実証済みのパフォーマンスが最も重要なアプリケーションにおいて特に有利であり、広範な内部開発リソースを必要とせずに高度な AI 機能へのアクセスを提供します。ただし、事前構築モデルは、その訓練がより「一般的な」ユースケースを対象としているため、特定のニーズに十分に対応できなかったり、ユニークなデータセットやタスクにうまく適応できない可能性があります。さらに、モデルにどのようなデータを送信しているか、そして送信したデータが更なるモデルの学習に使用されているかどうかを認識しておく必要があります。

基盤モデル・大規模言語モデルを使って構築するためのツール

次の選択肢は、Amazon Bedrock のようなマネージド AI サービスを使用することです。これは AWS がインフラストラクチャ、アップデート、スケーリングを管理するため、大規模なデプロイと変動する作業負荷を処理でき、トレーニングとカスタマイズに集中できます。Amazon Bedrock でアプリケーションを構築することに興味がある場合は、次の記事をご覧ください: Build generative AI applications on Amazon Bedrock — the secure, compliant, and responsible foundation (Amazon Bedrock で構築する生成 AI アプリケーション – セキュアでコンプライアンスを遵守した責任ある基盤)

基盤モデルの学習と推論のためのインフラストラクチャ

最後の選択肢は、Amazon SageMaker のようなサービスを使用して独自のモデルを構築したり、AWS インフラストラクチャと PyTorchTensorFlow などを使用してカスタムモデルを構築することです。独自のモデルを構築することで、特定のタイプのコンテンツの生成、ユニークなデータ形式の処理、特殊な機能の組み込みなど、ユースケースに合わせた正確な調整ができます。アプリケーションが業界や問題領域に特有の知識や機能を必要とする場合、カスタム構築されたモデルがより効果的です。これは特に、ヘルスケア、金融サービス、製造業など、特定の規制、データタイプ、パフォーマンス要件を満たす必要がある分野と関連性があります。SageMaker のようなサービスは、他の AWS サービスやサードパーティツールとうまく統合でき、より包括的な AI ワークフローを推進します。独自モデルの構築は、事前構築されたモデルの利用よりも大変な作業ですが、事前構築されたモデルでは満たせないカスタマイズが必要な場合に適切です。これらは開発とスケールした利用において、潜在的により高いコストがかかる可能性もあります。SageMaker のようなマネージド AI サービスを生成 AI に使用することで、インフラストラクチャと運用タスクの管理よりも、モデルの開発と改善に集中できます。

責任ある生成 AI の利用

企業が生成 AI のユースケースを検討する際、懸念となる用語がいくつか出てきます。生成 AI の「ハルシネーション」や「機械学習によるバイアス」に関する多くの話題がメディアを通じて広まっています。では、これらは何であり、何が原因なのでしょうか。ハルシネーションは、基礎となるモデルが、もっともらしく聞こえるが誤解されたデータや存在しないデータに基づいた応答を生成する時に発生します。例えば、生成 AI チャットボットに右利き用のガジェットの 5 つのオプションを尋ねたとき、実際には 3 つしか存在しない場合、リクエストを満たすために残りの 2 つについてデータを作り出すかもしれません。作り出された回答は合理的で、もっともらしく聞こえ、正しく見えるだけの十分なデータを持っているように見えますが、実際には正しくありません。また、生成 AI の基盤モデルは、学習データからバイアスを得ます。生成 AI モデルの学習に使用されるすべてのデータはどこかから取得されていて、大部分は人々や私たちが書いたものから来ています。もちろん、人間は完璧ではありません。私たちには意識的および無意識的なバイアスがあり、これらのバイアスが文章に現れます。結果、人工知能モデルが、特定の人口統計グループに対して差別するケースがあります。このバイアスは様々な形で現れる可能性があります。最も一般的なものには以下が含まれます:

  1. ステレオタイプに起因するバイアス : システムが学習データに存在する既存の認識やステレオタイプに適応してしまうケースがあります
  2. 人種バイアス : これはステレオタイプに起因するバイアスの一種ですが、最も警戒すべきものの一つです。現在の状況や異なる人種に対する見方を分析し、アルゴリズムは人種的に偏ったコンテンツを提供する可能性があります
  3. 文化的バイアス : これもステレオタイプに起因するバイアスの一種で、特定の文化や国籍に対して不公平な扱いや欠陥のある出力を示す場合があります

これらの問題は本当に恐ろしく聞こえますね。しかし幸いなことに、カスタマーエクスペリエンスのユースケースを含め、これらの問題を軽減するのはそれほど難しくありません。ハルシネーションを軽減する際には、詩を書かせたりコンテンツを生成させたりするような、開かれた質問のプロンプトを使用しないようにしてください。バイアスの可能性を減らすためには、モデルが応答を得るデータを制御することが必要です。包括的で、監視され、テストされたデータセットをモデルに提供することで、あなたがモデルの出力として使用できるものを制御します。公開されている生成 AI モデルとは異なり、管理されたモデルでは、応答を生成する際の元データとしてどんなデータを取り込むことができるかについて、あなたが最終的な権限を持っています。したがって、望ましくない動作を減らすことができるのです。さらに、Amazon Connect 向けに発表された新しい生成 AI 機能はすべて、AWS が自動化された不正利用検出を実装している Amazon Bedrock によって提供されています。

Amazon Connect に搭載された生成 AI 機能の利用

過去 6 ヶ月間で、Amazon Connect は新しい生成 AI 機能をいくつかリリースしました。これらの機能により、自ら生成 AI モデルをデプロイ、管理、トレーニングする手間をかけずに、Amazon Connect 内で魅力的な新技術を簡単に活用できるようになりました。これらの新機能は、このブログシリーズの第 1 部第 2 部で話した 3 つの領域に焦点を当てており、特別なトレーニングや知識を必要とせずに、既存の Amazon Connect インスタンスで迅速かつ簡単に有効化できます。

エージェントの効率性の向上

生成 AI がどのようにエージェントの能力向上を促進するか見てみましょう。生成 AI が一般に知られるようになった当初の一般的な反響の一つは、「エージェントをこれに置き換えたい」というものでした。しかし、現在の技術の能力と限界を理解し、少し深く考えると、より良い観点は「生成 AI によってエージェントの業務を改善すること」です。エージェントが顧客に伝える情報を迅速、正確、確実に提供できるようにすることで、エージェントの効率性と顧客満足度を新たなレベルに引き上げることができます。平均処理時間を短縮し、初回解決率を向上させることができます。Amazon Q in Connect は、Amazon Connect Wisdom の発展形で、生成 AI を使用してエージェントに顧客の質問に対する提案された回答とアクションを提供します。Amazon Q in Connect は、顧客とのリアルタイムの会話と関連する企業のコンテンツを活用して、顧客をより良くサポートするために何を言うべきか、どのようなアクションを取るべきかを自動的に推奨し、関連する知識記事や文書にすぐにアクセスできるようにします。エージェントは自然言語で Amazon Q と直接チャットし、生成された回答、推奨されるアクション、さらなる情報へのリンクを受け取ることもできます。

Amazon Q in Connect では、応答に使用できるデータの取得先、具体的にはナレッジベース(複数可)を指定するため、モデルが使用するデータを完全に制御できます。つまり、あなたが入力データの正確性を確保する必要があります。入力データ、ナレッジベースのドメイン、顧客の問い合わせに対する回答に使用できるすべてのデータを制御できるのです。コンテンツの最適化は、Amazon Q in Connect を最大限に活用するための鍵となります。ナレッジベースの記事を適切に管理していれば、ハルシネーションや Amazon Q が信頼できないソースや偏ったマテリアルを使用する可能性を大幅に減らすことができます。Amazon Q in Connect はセットアップも簡単です。Zendesk 、Salesforce 、 SharePoint 、Amazon Simple Storage Service(S3) などの一般的なドキュメントストアへの事前構築された統合により、Amazon Connect コンソールでドメインを作成してデータストアを指定するだけで簡単に設定できます。

Amazon Q in Connect の利用は、ナレッジベースの記事に限定されません。Amazon Connect Contact Lens を使用すると、すべての問い合わせの文字起こしも可能です。評価を使用して、問題解決の優れた例となる顧客とのやり取りを特定できます。これらの文字起こしは、生成 AI が顧客の問題解決に活用できるリソースの全体的なプールに取り込むことができます。 Amazon Q in Connect を使用すると、最高のリソースライブラリだけでなく、最も優れたトークスクリプトも活用できるため、すべてのエージェントがすべての通話において優れたエージェントを手本にすることができます。

分析と品質のモニタリング

私たちは常にコンタクトセンターでの顧客サービスのやり取りからデータを収集することに長けていました。しかし、実際にそのデータから洞察を得ることは歴史的に課題となっていました。近年、 AI は文字起こし、分類、既存データのより良い「傾向」の可視化を支援してきました。生成 AI は、問い合わせを迅速、簡単、かつ正確に要約し分類することができるため、コンタクトセンターで実際に何が起きているか知る方法を、さらに一歩前進させてくれます。そして、 Amazon Q in Connect のような管理された事前学習済みモデルは、わずか数回のクリックで設定できます。

顧客とのやり取りを改善し、将来の参照のために詳細を確実に利用できるようにするため、コンタクトセンターのマネージャーは多くの場合、エージェントが顧客とのやり取りの後に手動で作成するメモに頼らざるを得ません。これらのメモには、顧客の問題がどのように対処されたか、会話の重要な場面、そして保留中のフォローアップ項目の詳細が含まれています。これらのメモは役立つものの、作成と確認に時間がかかるため、エージェントの対応可能時間を減らし、結果的に顧客の待ち時間を増やすことがよくあります。

Amazon Connect Contact Lens は現在、生成 AI を活用した問い合わせ後の要約を提供し、コンタクトセンターのマネージャーがより効率的に問い合わせの品質とエージェントのパフォーマンスをモニタリングし、改善を支援することを可能にします。例えば、顧客に対して行った約束を追跡し、フォローアップアクションの迅速な完了をモニタリングするために要約を使用できます。顧客とのやり取りの直後に、 Contact Lens は会話を簡潔で一貫性のある要約に凝縮します。管理者はこれらの要約を使用して、長い文字起こしを読んだり長時間の録音を聞いたりすることなく、通話の理由と結果を迅速に評価できます。エージェントも、繰り返しの問い合わせに対してこれらの要約を使用し、過去のやり取りと必要なフォローアップタスクを素早く把握できます。

スーパーバイザーと品質アナリストは、 Amazon Connect のエージェント評価で利用可能な Ask AI オプションを使用して、会話全体を聞いたり読んだりすることなく、 AI を活用した質問への回答を生成することもできます。「顧客は満足していましたか」といった「はい・いいえ」で答えられる質問だけでなく、「この会話は顧客の当社に対する印象にどのような影響を与えた可能性がありますか」のようなより洞察に富んだ質問に対しても回答を提供できます。 Contact Lens は会話全体を検討し、理由や参照部分を含む回答を提供し、評価者が通話の確認に費やす時間を削減します。もちろん、これらの回答は必要に応じて上書きや修正が可能です。

セルフサービスでのカスタマーサービスの提供

生成 AI は、セルフサービスでのカスタマーサービスにおいて特に(そして時には誤って)注目されることが多いですが、確かに価値のある用途もいくつかあります。よくある誤解は、生成 AI がすべてのチャットボットの代替になり、また、優れているはずだという考えから生じています。通常はそうではありませんが、曖昧さが予想されるユースケースでは生成 AI が優れている可能性があります。対象となるユースケースでチャットボットが何をしているかを考えてみてください。例えば、チャットボットが単に口座残高を確認しているだけの場合、これはデータ提供を繰り返すという単純なタスクであり、生成 AI の利用は過剰です。生成 AI が役立つのは、このような会話をより動的に、人間らしく、パーソナライズされたものにする場合です。過去には、チャットボットに異なる挨拶のリストを提供し、名前などの少しのパーソナライゼーションを加えた例もあります。生成 AI を使えば、顧客の名前、場所、過去の購入履歴などの基本的な情報を提供し、カスタマイズされた挨拶を生成することもできます。

例えば、架空の会社 AnyCompany Fitness には、シアトルに住んでいて、過去に商品を購入したことのある Susan という顧客がいるとします。Amazon Bedrock を活用する際、「あなたは顧客の電話に応答しています」「当社は AnyCompany Fitness です」「個人的でフレンドリーに」「ミレニアル世代のように応答してください」などのプロンプトをパラメータとして含めることができます。加えて、顧客固有の情報とリクエストを提供します。例えば、「リピーターの Susan が当社 AnyCompany Fitness に電話をしています。Susan はシアトルに住んでいます。なぜ電話をしているのか確認してください」というプロンプトは、設定した他のパラメータに応じて、次のような応答を生成する可能性があります:

  • 「こんにちは、AnyCompany Fitness の AI アシスタント Jean です。今日はどのようなご用件でしょうか、Susan さん?」
  • 「やあ、Susan!シアトルはどう? AnyCompany Fitness の AI アシスタント Jean だよ。お帰りなさい、ガール!今日は何をお手伝いしようか?」
  • 「こんにちは、AnyCompany Fitness の AI アシスタント Jean です。お帰りなさい、Susan さん!この素晴らしい水曜日、どのようなお手伝いができますか?」

こういった活用法は、あなたの会社やブランドのトーンやイメージに基づいて必要に応じて適用でき、これまで以上に動的にメッセージをパーソナライズする能力を提供します。これらのパーソナライゼーションはメッセージングに限定される必要はありません。顧客についてより多くのことを知れば知るほど、より多くのパーソナライゼーションを提供できます。多くの種類の保留音のライブラリを持っていて、Susan に最も響く曲を動的に選びたいですか。彼女の生年月日を知っていますか。それなら AI に Susan の高校 3 年生の時に人気だった曲をライブラリから選んでもらい、それを保留音として流すこともできます。あなたのビジネスと顧客との関係によっては、可能性はほぼ無限です。

ユーザーは AI チャットボットの人間の入力への応答にますます慣れてきているため、より人間らしくチャットボットに話しかけるようになってきています。Amazon Lex は現在、生成 AI を活用したスロット解決をサポートしており、問い合わせからの曖昧な入力を取り、それをインテントにマッピングすることができます。例えば、夕食の予約をする際、チャットボットが何人で来るかを尋ねるかもしれません。私が「2 人」と答えれば、従来の AI はそれを完璧に処理します。しかし、「妻と私」と言ったらどうでしょうか。従来の AI モデルはそれを正しい値にマッピングしません。生成 AI 支援のスロットは、正しい応答を推論し、予約エンジンに「2」を返すことができます。これらはすべて、チューニングや構築を必要としない管理された生成 AI モデルで行われます。

もう一つの新機能は、Amazon Bedrock の基盤モデル (FM) を使用して、数分でボット構造を素早く作成する記述式ボットビルダーです。開発者は単に自然言語でボットの意図するタスクとクエリを説明するだけです。Amazon Lex はその説明からボットを構築するためのサンプルのインテント、スロット、発話を生成します。例えば、開発者はボットが顧客の食事の注文を処理し、メニュー項目、数量、サイズを取得すべきだと説明することができます。また、注文状況の確認や注文のキャンセルも行うべきです。Amazon Lex はこれらの情報から開発者がレビューしさらにカスタマイズするための初期ボットを作成します。記述式ボットビルダーを使用するには、Amazon Bedrock にサインアップし、Amazon Lex コンソールにログインします。「Create Bot」をクリックし、「Generative AI – Descriptive Bot Builder」オプションを選択します。Descriptive Bot Builder は US East(N. Virginia) と US West(Oregon) リージョンの Amazon Lex V2 で利用可能です。この機能は最初は英語のロケールでのみ利用可能です。詳細については、記述式ボットビルダーのドキュメントをご覧ください。

そして最後に紹介する機能は、Amazon Lex が顧客の問い合わせを検出し、ボットの会話中に Amazon Bedrock の基盤モデルを活用して回答を提供する新しい組み込みインテントです。このインテントは Amazon Bedrock の生成 AI 機能を利用して、顧客の質問を識別し、さまざまな知識ソースから回答を検索します(例:「国際線の手荷物制限は何ですか」)。これにより、Amazon Lex V2 インテント内のタスク指向の対話を使用して質問と回答を構成するプロセスを簡素化します。さらに、このインテントは会話履歴に基づいてフォローアップの質問(例:「国内線ではどうですか」)を認識し、適切な回答を提供できます。Amazon Lex と Amazon Connect のネイティブな統合により、顧客体験全体で Lex チャットボットを活用することができます。

生成 AI を活用してカスタマーエクスペリエンスとエージェントエクスペリエンスを向上させることがいかに簡単かを探ってみましょう

この記事で紹介したコンタクトセンターの機能の最も良い点は、特別な知識や学習が必要ないこと、そしてこれらの可能性を活用するために広範な開発や構築を必要としないことです。例えば、Amazon Q in Connect は、コンソールで Amazon Connect にナレッジベースドメインを追加するだけで準備できます。生成 AI を活用した問い合わせサマリーも、数回のクリックで Contact Lens を有効にすれば利用できます。エンドカスタマーのセルフサービスエクスペリエンスに生成 AI を活用する場合も同様です。これらの機能を有効にするだけで、生成 AI を使用してチャットボットを作成し、拡張することができます。Amazon Connect では、生成 AI をカスタマーエクスペリエンスに追加することで得られる価値を数回のクリックで手に入れられます。今すぐ実験を始めてみましょう!

見逃した方のために、この 3 部構成の CX 向け生成 AI ブログシリーズのパート 1 と 2 をご紹介します:

生成 AI を活用した Amazon Connect でカスタマーサービスエクスペリエンスを変革する準備はできましたか?お問い合わせください

著者について

Mike Wallace Mike Wallace は AWS でアメリカのカスタマーエクスペリエンス分野のソリューションアーキテクトをリードしています。
Jason Douglas Jason Douglas は AWS のカスタマーエクスペリエンス分野のプリンシパルソリューションアーキテクトです。

翻訳はテクニカルアカウントマネージャー高橋が担当しました。原文はこちらです。