Autopilot

CXone Mpower Autopilotは、フルサービスのデータ駆動型インテリジェントなバーチャルエージェント閉じた ライブの人間のエージェントの代わりに顧客とのやり取りを処理するソフトウェアアプリケーション。です。 ライブエージェントに代わって音声デジタル閉じた Digital Experienceに関連するあらゆるチャネル、コンタクト、またはスキル。インタラクション閉じた チャネルを介したエージェントとの会話全体。 たとえば、インタラクションには、音声通話、Eメール、チャット、またはソーシャルメディアでの会話があります。を処理します。 Autopilotバーチャルエージェントは人間の言語を理解し、コンタクトに自然に応答します。 彼らは、人間レベルの理解で、話題を切り替え、文脈を理解し、質問に答えることができます。 Autopilotバーチャルエージェントは、ライブエージェントへのエスカレーションを制限しながら、セルフサービスを通じて問題を完全に解決できます。

Autopilotバーチャルエージェントは、CXone MpowerXO人工知能(AI)を使用します。 XOは30年以上のインタラクションデータが搭載されています。 Autopilotはそのデータと組織のインタラクションデータを使用して、会話フローを構築します。 これらのフローには、考えられる発話閉じた コンタクトが発言または入力すること。と適切な応答のリストが含まれています。 AIを使用して、Autopilotバーチャルエージェントはインタラクションから学び続け、これらのフローを改善し、追加します。

Autopilotバーチャルエージェントは以下のこともできます:

  • コンタクトの問題を解決するためにエージェントが実行する必要があるタスクを特定します。

  • コンタクトのデータの取得など、Autopilot自体が実行できるバックエンドタスクを識別すること。

  • 特定されたニーズと興味に基づいて、コンタクトにメッセージを積極的に送信すること。 この機能の例については、このデモビデオをご覧ください。

CXone Mpower Recordingを使用してAutopilot音声インタラクションを録音できます。

エドワード・フェラーズは、Classics, Inc.のバーチャルエージェントであるAutopilotと話をしています。 彼は、Autopilotに最近注文した本の残額を支払いたいと言っています。 Autopilotは支払いの会話フローを開始します。 請求情報を取得し、2枚のクレジットカードが見つかりました。 エドワードにどちらを使いたいか尋ねます。 彼は「クレジットカードA」と答えますが、その後考えを変えて「やはりクレジットカードBを使ってください」と言います。 Autopilotはクレジットカードの選択を変更します。

エドワードは次に、パスワードの変更について助けを求めます。 Autopilotはそのインテントの会話フローに切り替わります。

Autopilotは、エドワードの最初のインテント閉じた コンタクトが発言または入力した内容の背後にある意味や目的。コンタクトが伝えたいことや達成したいこと。が支払いであったことを覚えています。 会話フローに戻ります。 エドワードに、請求情報からクレジットカードAを削除するかどうかを尋ねます。 彼は「はい」と答えたので、Autopilotはそれを削除します。

バーチャルエージェントの仕組み

会話の始まりは音声とテキストのバーチャルエージェントでは異なります。

会話の開始後、バーチャルエージェントはコンタクトの発話を分析しその人物が発言する内容の背景にある目的や意味を理解します。 これはコンタクトのインテントとして知られています。 インテントが特定されるとバーチャルエージェントはコンタクトに対してレスポンスを送信します。応答の送信方法は、バーチャルエージェントがテキストベースか音声ベースかによって次のように異なります。

  • 音声リクエストと応答は、バーチャルエージェントとコンタクトの間で直接送信されます。 CXone Mpowerは、会話中ずっとバーチャルエージェントサービスに接続しているが、会話には参加しません。 CXone Mpowerは、会話が完了するシグナルか、コンタクトがライブエージェントへの転送をリクエストするシグナルを待ちます。これSIP閉じた 音声通話やビデオ通話などのマルチメディア通信セッションのシグナリングと制御に使用されるプロトコル。バックチャネル接続メソッドです。
  • テキストリクエストと応答は、ターンごとにVirtual Agent Hubおよびスクリプト経由で送信されます。 このオプションでは、ターンごとのバーチャルエージェントの行動をカスタマイズすることはできません。

会話が終わると、バーチャルエージェントはStudioスクリプトに信号を送信します。 会話が完了したこと、またはコンタクトがライブエージェントと話す必要があることを信号で知らせることができます。 会話が完了すると、そのインタラクションは終了します。 ライブエージェントが必要な場合は、スクリプトがリクエストを行います。 コンタクト先が利用できるときは、エージェントに転送されます。

会話が完了したら、CRM閉じた コンタクト、販売情報、サポートの詳細、ケース履歴などを管理するサードパーティーシステム。に情報を録音するなどインタラクション後のタスクを実行することができます。

前提条件

Autopilotをセットアップする前に、以下を準備する必要があります。

チャットチャネル用にAutopilotデジタルVirtual Agent Hubを設定できます。 Autopilotを音声チャネルで使用するには、アカウント担当者に連絡してください。 オートパイロット音声バーチャルエージェントのセットアップはVirtual Agent Hubの外部で行われ、カスタムスクリプティングのニーズには追加の支援が必要です。

統合のコンポーネント

セットアップ Autopilotには、以下のコンポーネントが必要です:

音声生体認証認証

音声生体認証を使用して、コンタクト閉じた コンタクトセンターでエージェント、IVR、またはボットとやり取りする人。を認証できます音声バーチャルエージェント。Autopilot この方法では、声紋を使用して電話でコンタクトを認証します。 人は誰でも、固有の指紋があるように、固有の声紋を持っています。 音声生体認証サービスが発信者が本人であるかどうかを判断するのに、通常の会話の発話で0.5~3秒しかかかりません。

音声生体認証を使用するには、コンタクトを登録する必要があります。 登録プロセスの一環として、音声を録音して認証に使用する権限を組織に与える必要があります。 この方法をバーチャルエージェントで使用する場合、インタラクション中にこのインテント閉じた コンタクトが発言または入力した内容の背後にある意味や目的。コンタクトが伝えたいことや達成したいこと。を処理するようにバーチャルエージェントを構成し、トレーニングする必要があります。

バーチャルエージェントで音声生体認証を使用するには、音声生体認証プロバイダーVoice Biometrics Hubでセットアップしている必要があります。 また、音声生体認証フローを処理できるように、Studioスクリプトをカスタマイズする必要があります。

AutopilotOmilia)がある場合は、OmiliaOmiliaで利用可能なプラットフォーム音声生体認証ミニアプリを使用できます。 このオプションでは、既知の不正なコンタクトのブロックリストなどのOmilia詐欺対策機能を使用したり、ANI閉じた 発信者IDとも呼ばれます。 着信音声通話のリストに表示される電話番号です。のなりすましや録音された音声を使用してシステムをだますことを検出したりできます。

Autopilot 知識ベースとの統合

AutopilotCXone Mpower Expertまたは任意のサードパーティの知識ベース(KB)と統合できます。 Autopilotは次に、KB記事の情報を活用して、コンタクトの質問に答えることができます。 Autopilotは、知識ベースから以下をコンタクトに提供できます。

  • 1つ以上のKB記事の情報から構成される応答。

  • KB記事内のリンクと画像。

  • 完全なKB記事へのリンク。

コンタクトが情報を役に立たないと判断した場合は、Autopilotはそのインタラクションをライブエージェントに転送します。

AutopilotとKBとの統合は、実装チームが完了する必要があります。

テキストバーチャルエージェントのリッチメディアによるサポート

チャネルがサポートしていれば、リッチメディア閉じた ボタン、画像、メニュー、オプションピッカーなど、デジタルメッセージングの要素。のコンテンツをメッセージに含めることができます。 送信できるリッチメディアのタイプは、次の表に示すように、チャネルによって異なります。

  Adaptive Cards HTMLとMarkdownテキスト リッチリンク クイック返信 リストピッカー タイムピッカー フォームメッセージ
Apple Messages for Business 「サポートされていない」ことを示す赤のX 「サポートされていない」ことを示す赤のX 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク

デジタルチャット

「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされていない」ことを示す赤のX 「サポートされていない」ことを示す赤のX
Eメール 「サポートされていない」ことを示す赤のX 「サポートされている」ことを示す緑のチェックマーク 「サポートされていない」ことを示す赤のX フォールバックテキストを使用 「サポートされていない」ことを示す赤のX 「サポートされていない」ことを示す赤のX 「サポートされていない」ことを示す赤のX
Facebook Messenger 「サポートされていない」ことを示す赤のX 「サポートされていない」ことを示す赤のX 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされていない」ことを示す赤のX
WhatsApp 「サポートされていない」ことを示す赤のX 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされていない」ことを示す赤のX
Googleビジネスメッセージ 「サポートされていない」ことを示す赤のX 「サポートされていない」ことを示す赤のX 「サポートされている」ことを示す緑のチェックマーク 「サポートされていない」ことを示す赤のX 「サポートされている」ことを示す緑のチェックマーク 「サポートされている」ことを示す緑のチェックマーク 「サポートされていない」ことを示す赤のX

サポート対象: 「サポートされている」ことを示す緑のチェックマーク

サポート対象外: 「サポートされていない」ことを示す赤のX

リッチメディアのデジタルチャネルサポートに関する詳細

テキストバーチャルエージェントの応答にリッチメディアコンテンツを含める場合は、これをバーチャルエージェントの管理コンソールで設定します。 これはリッチメディアを送信する各応答の設定に含める必要があります。

リッチメディアコンテンツはJSONとして送信されます。 リッチメディアJSONを構築する際は、使用しているデジタルチャネルのスキーマに従ってください。 スキーマはチャネルごとに異なります。 使用するメディアコンテンツ用のJSONを見つけ、 AmeliaOmiliaバーチャルエージェントプロバイダーの設定コンソール。 Studioスクリプトでリッチメディアで作業する方法についての詳細は次を参照してください。 スクリプトまたはバーチャルエージェントに追加する前に、Digital ExperienceJSON ミラーツールを使用してJSONを検証できます。

カスタムスクリプトのガイドライン

仮想エージェント閉じた コンタクトが発言または入力した内容の背後にある意味や目的。コンタクトが伝えたいことや達成したいこと。統合する前に、次のことを確認する必要があります:

  • どのスクリプトに仮想エージェントを追加するか。
  • を使用する必要のあるバーチャルエージェントStudioアクション。

  • Studioアクションをスクリプトフローのどこに配置する必要があるか。
  • 使用している仮想エージェントに固有の構成要件。
  • 次のものを含む、バーチャルエージェント用のスクリプト固有の要件:
    • AmeliaバーチャルエージェントのJSONペイロード内にJavaScriptをネストする際は、バックスラッシュで二重引用符をエスケープする代わりに、一重引用符を使用してください。

    • JSON構造は、"contentType": "dfoMessage"でなければなりません。ここで、MessageのMは大文字です。 小文字のmでは動作しません。

  • テキストバーチャルエージェント用のスクリプトでTYPING INDICATOR Studioアクションを使用します。 このアクションは、バーチャルエージェントが応答しているときにチャットウィンドウに跳ねるドットなどの視覚的なインジケーターを追加します。 これにより、インタラクション中にバーチャルエージェントがより人間らしく見えるようになります。
  • 仮想エージェントアクションを追加した後にスクリプトを完了する方法。 次のことが必要になる場合があります。
    • Snippetアクションを使用して、必要に応じて初期化スニペットをスクリプトに追加します。 これは、バーチャルエージェントの動作をカスタマイズしたい場合に必要です。
    • アクションコネクタを再構成して、適切な接触フローを確保し、潜在的なエラーを修正します。
    • OnReturnControlToScript分岐ブランチを使用して、インタラクションの中断または終了を処理します。 デフォルトDefault分岐を使用してインタラクションの切断または終了を処理すると、スクリプトが意図したとおりに機能しない場合があります。
    • 追加のスクリプトを完了し、スクリプトをテストします。

追加したバーチャルエージェントアクション内のすべてのパラメーターが正しいデータをパスするように構成します。 アクションのオンラインヘルプページには、各パラメーターの設定方法が記載されています。

さらに、プロバイダー側で仮想エージェントを完全に構成してください。 考えられるすべての既定のメッセージで構成されていることを確認します。 これには、エラーメッセージやインテントが実行されたというメッセージなどがあります。

CXone Mpowerエキスパートサービスから、バーチャルエージェントの連携に使用するテンプレートスクリプトを入手できる場合があります。 Studioでのスクリプティングについてヘルプが必要な場合、アカウント担当者にお問い合わせいただくか、オンラインヘルプの技術参照ガイドのセクションを参照するか、CXone Mpowerコミュニティ中央から右上隅に向いている矢印が付いた正方形。サイトにアクセスしてください。

サポートされているStudioアクション

スクリプトでTextbot Exchange Studioアクションを使用して、Autopilotを使用します。 Autopilotで音声バーチャルエージェントをセットアップしている場合は、CXone Mpowerアカウント担当者に連絡して支援を求めてください。

TextBot Exchangeアクションは、複雑なバーチャルエージェントに使用するか、ターンごとにバーチャルエージェントの動作をカスタマイズする必要がある場合に使用します。 コンタクトとバーチャルエージェント閉じた ライブの人間のエージェントの代わりに顧客とのやり取りを処理するソフトウェアアプリケーション。間の会話をターンごとに監視します。 各発話閉じた コンタクトが発言または入力すること。を仮想エージェントに送信します。 バーチャルエージェントは、インテント閉じた コンタクトが発言または入力した内容の背後にある意味や目的。コンタクトが伝えたいことや達成したいこと。とコンテキストに関して発話を分析し、どう応答するかを決定します。 TextBot Exchangeは、コンタクトに応答を返します。 会話が完了すると、アクションはスクリプトを続行します。