Amazon Lex V2

Amazon Lex V2 ist eine Drittanbieterplattform, die virtuelle Agenten für Sprache und Chat bereitstellt. Virtuelle Agenten interpretieren, was Ihre Kontakte sagen oder im Chatfenster schreiben, und reagieren entsprechend. Sie nutzen dazu Technologien wie:

Virtuelle Agenten sind flexibel und können eine Reihe von Funktionen anbieten, die den Anforderungen Ihres Unternehmens entsprechen. Sie können Ihren virtuellen Agenten zum Beispiel so gestalten, dass er einige einfache Aufgaben erledigt oder als komplexer interaktiver Agent fungiert.

CXone Mpower unterstützt die Verwendung des Amazon Lex V2 mit sprach- und digitalen chatbasierten Kanälen. Die Einrichtung erfordert Arbeit in der Anbieterplattform und in CXone Mpower. In CXone Mpower erfolgt die Einrichtung in Virtual Agent Hub und mit benutzerdefinierten Skripten.

Gesprächsablauf für sprach- und textbasierte virtuelle Agenten

Der Beginn des Gesprächs unterscheidet sich bei sprach- und textbasierten virtuellen Agenten:

Der virtuelle Agent analysiert die Äußerungen des Kontakts, um den Zweck oder die Bedeutung hinter den Worten zu verstehen. Dies wird als Absicht des Kontakts bezeichnet. Der Virtual Agent sendet eine entsprechende Antwort als Text. Die Antwort des virtuellen Agenten von einem Text-to-SpeechClosed Ermöglicht den Benutzern die Eingabe von Ansagen als Text und die Verwendung einer computergenerierten Sprache für die Aussprache des Inhalts.-Dienst in Audio umgewandelt. Das Skript sendet es an den Kontakt. Transkription und Sprachsynthese können in CXone Mpower oder in einigen Fällen auf der Plattform des Anbieters erfolgen.

Anfragen und Antworten können Zug um Zug über Virtual Agent Hub und das Skript gesendet werden. Mit dieser Option kann das Verhalten des Bots des virtuellen Agentenvon Runde zu Runde angepasst werden. Für virtuelle Sprachagenten ist dies ist eine auf Äußerungen basierende Verbindungsmethode. Diese Methode wird von allen Anbietern textbasierter virtueller Agenten unterstützt.

Am Ende des Gesprächs sendet der virtuelle Agent ein Signal an das Skript. Er kann signalisieren, dass das Gespräch abgeschlossen ist oder dass der Kontakt an einen Live-Agenten weitergeleitet werden muss. Wenn das Gespräch abgeschlossen ist, endet die Interaktion. Wenn ein Live-Agent benötigt wird, erstellt das Skript eine entsprechende Anforderung. Der Kontakt wird an einen verfügbaren Agenten weitergeleitet,

Wenn die Konversation abgeschlossen ist, kann das Skript Aufgaben nach der Interaktion ausführen, beispielsweise das Aufzeichnen von Informationen in einem CRMClosed Systeme von Drittanbietern, die z. B. Kontakte, Vertriebsinformationen, Supportdetails und Fallgeschichten verwalten..

Komponenten einer Integration

Zur Integration von Amazon Lex V2 gehören die folgenden Komponenten:

Rich Media-Unterstützung für textbasierte virtuelle Agenten

Wenn Ihr Kanal dies unterstützt, können Sie Rich MediaClosed Elemente in digitalen Nachrichten wie Schaltflächen, Bilder, Menüs oder Auswahlmöglichkeiten-Inhalte in die Nachrichten einschließen. Die Art von Rich Media, die gesendet werden können, unterscheidet sich von Kanal zu Kanal, wie in der folgenden Tabelle gezeigt.

  Adaptive Cards HTML und Markdown-Text Rich-Link Schnellantworten Listenauswahl Zeitauswahl Formularnachricht
Apple Messages for Business Rotes X, das "nicht unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet

Digital Chat

Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Rotes X, das "nicht unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet
E-Mail Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das unterstützt bedeutet Rotes X, das "nicht unterstützt" bedeutet Verwendet Fallback-Text Rotes X, das "nicht unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet
Facebook Messenger Rotes X, das "nicht unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Rotes X, das "nicht unterstützt" bedeutet
WhatsApp Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Rotes X, das "nicht unterstützt" bedeutet
Google Business Messages Rotes X, das "nicht unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das unterstützt bedeutet Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das unterstützt bedeutet Grünes Häkchen, das unterstützt bedeutet Rotes X, das "nicht unterstützt" bedeutet

Unterstützt: Grünes Häkchen, das unterstützt bedeutet

Nicht unterstützt: Rotes X, das "nicht unterstützt" bedeutet

Weitere Informationen über die Unterstützung digitaler Kanäle für Rich Media.

Wenn Sie Rich Media-Inhalt in Antworten textbasierter virtueller Agenten einbeziehen möchten, konfigurieren Sie dies in der Verwaltungskonsole Ihres virtuellen Agenten. Es sollte in der Konfiguration jeder Antwort enthalten sein, die Rich Media sendet.

Rich Media-Inhalt wird als JSON gesendet. Befolgen Sie beim Erstellen Ihrer Rich Media-JSON das Schema für den digitalen Kanal, den Sie verwenden. Die Schemata sind für jeden Kanal unterschiedlich. Suchen Sie das JSON für den Medieninhalt, den Sie verwenden möchten, und fügen Sie es dann den Antwortnachrichtenkonfigurationen hinzu, die Sie in der Konfigurationskonsole Amazon Lex V2 erstellen. Erfahren Sie mehr über das Arbeiten mit Rich-Media-Inhalten in Studio-Skripten. Sie können das Digital Experience JSON-Mirror-Tool verwenden, um Ihren JSON-Code zu überprüfen, bevor Sie ihn Skripten oder virtuellen Agenten hinzufügen.

Gesprächstranskripte

Sie können das Transkript und die Absichtsinformationen von allen Amazon Lex V2 Sprach- Gesprächen erfassen. erfassen. Die erfassten Daten können Sie auf beliebige Weise verwenden. Sie könnten sie zum Beispiel diesem Agenten anzeigen, wenn die Interaktion an einen Live-Agenten weitergeleitet wird. Eine andere Möglichkeit ist, die Daten als dauerhafte Aufzeichnung des Gesprächs zu speichern. Sie haben die Wahl, ob Sie nur das Transkript, nur die Absichtsinformationen, beides oder keins davon erfassen.

Wenn Sie diese Informationen erfassen möchten, müssen Sie sie in den Amazon Lex V2 Konfigurationseinstellungen in Virtual Agent Hub. Sie müssen auch ein Studio-Skript konfigurieren, das für Ihren virtuellen Agenten verwendet wird. Das Skript muss eine -Aktion enthalten, die für die Verwaltung der erfassten Daten konfiguriert wurde. Erfasste Daten werden temporär gespeichert, solange die Kontakt-ID besteht. Wenn Sie die Daten dauerhaft speichern möchten, können Sie das Skript so konfigurieren, dass es die Daten an ein Archiv sendet. Sie sind für das Bereinigen persönlich identifizierbarer Informationen (PII) aus allen gespeicherten Daten verantwortlich.

Biometrische Stimmauthentifizierung

Mithilfe der Stimmbiometrie können Sie KontakteClosed Die Person, die mit einem Agenten, IVR oder Bot in Ihrem Contact Center interagiert. mit Amazon Lex V2 virtuellen Sprachagenten authentifizieren. Bei dieser Methode werden Stimmabdrücke zur Authentifizierung von Kontakten über das Telefon verwendet. Jeder Mensch hat einen individuellen Stimmabdruck, ähnlich wie unverwechselbare Fingerabdrücke. Ein sprachbiometrischer Dienst benötigt lediglich 0,5 bis 3 Sekunden normaler Gesprächssprache, um festzustellen, ob der Anrufer die Person ist, für die er sich ausgibt.

Kontakte müssen sich registrieren, um die sprachbiometrische Authentifizierung zu verwenden. Als Teil des Registrierungsprozesses müssen sie Ihrer Organisation die Erlaubnis erteilen, ihre Stimme aufzuzeichnen und zur Authentifizierung zu verwenden. Wenn Sie diese Methode mit einem virtuellen Agenten verwenden, müssen Sie Ihren virtuellen Agenten so konfigurieren und trainieren, dass er diese AbsichtClosed Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/eingibt; was der Kontakt mitteilen oder erreichen möchte. während einer Interaktion verarbeiten kann.

Für die Verwendung der sprachbiometrischen Authentifizierung mit einem virtuellen Agenten muss in ein Anbieter für SprachbiometrieVoice Biometrics Hub eingerichtet sein. Sie müssen auch Ihr Studio-Skript anpassen, um den Ablauf der Stimmbiometrie zu handhaben.

Richtlinien für eigene Skripte

Bevor Sie einen Virtual AgentClosed Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/eingibt; was der Kontakt mitteilen oder erreichen möchte. einbinden, müssen Sie wissen:

  • Welches Skript Sie um einen Virtual Agent erweitern möchten.
  • Die Studio -Aktion des virtuellen Agenten, die Sie verwenden müssen.

  • Wo die Studio Aktionen in Ihrem Skriptablauf platziert werden müssen.
  • Die Konfigurationsanforderungen, die für den von Ihnen verwendeten Virtual Agent gelten.
  • Anbieterspezifische Anforderungen. Autopilot hat keine anbieterspezifischen Anforderungen. Nur für Autopilot Amelia gelten für das Skript die folgenden Anforderungen:
    • Beim Verschachteln von JavaScript in der JSON-Payload in virtuellen Agenten von Amelia verwenden Sie einzelne Anführungszeichen statt doppelter Escape Anführungszeichen mit einem Backslash-Zeichen ( \" ).

    • Die JSON-Struktur muss "contentType": "dfoMessage" lauten, wobei M in Message großgeschrieben wird. Es funktioniert mit einem kleingeschriebenen m nicht.

  • So schließen Sie das Skript ab, nachdem Sie die Aktion des Virtual Agent hinzugefügt haben. Sie müssen eventuell:
    • Fügen Sie dem Skript mithilfe von Snippet-Aktionen nach Bedarf Snippets für die Initialisierung hinzu. Dies ist erforderlich, falls Sie das Verhalten Ihres virtuellen Agenten anpassen möchten.
    • Konfigurieren Sie die Studio Aktions-Closed Führt einen Prozess innerhalb eines Studio-Skripts aus, beispielsweise das Sammeln von Kundendaten oder das Abspielen von Musik.-Konnektoren neu, um einen ordnungsgemäßen Kontaktfluss sicherzustellen und mögliche Fehler zu beheben.
    • Verwenden Sie die OnReturnControlToScript-Verzweigung, um das Auflegen oder das Beenden der Interaktion zu handhaben. Wenn Sie für das Auflegen oder Beenden der Interaktion die Default-Verzweigung verwenden, funktioniert Ihr Skript möglicherweise nicht wie vorgesehen. StandardBot Verhaltensweisen. Diese Verzweigung wird nur verwendet, wenn der Status des virtuellen Agenten entweder Fulfilled oder ReadyForFulfillment lautet. Weitere Informationen zum Umgang mit dem Ende der Interaktion finden Sie in der Online-Hilfe zu learn more about handling the end of the interaction in the online help about
    • Vervollständigen und testen Sie das Skript.

Stellen Sie sicher, dass alle Parameter in den Aktionen des virtuellen Agenten, die Sie Ihrem Skript hinzufügen, so konfiguriert sind, dass sie die richtigen Daten übergeben. In den Online-Hilfeseiten für die Aktionen wird die Konfiguration der einzelnen Parameter beschrieben.

Der virtuelle Agent muss auch vollständig auf Anbieterseite konfiguriert werden. Stellen Sie sicher, dass er mit allen Standardnachrichten konfiguriert ist, die möglich sind. Dazu zählen Fehlermeldungen sowie Nachrichten, die darauf hinweisen, dass eine Absicht erfüllt worden ist.

Möglicherweise können Sie Vorlagenskripte für die Verwendung mit Integrationen virtueller Agenten von CXone Mpower Expert Services erhalten. Wenn Sie Hilfe bei der Skripterstellung in Studio benötigen, wenden Sie sich an Kundenbetreuer, lesen Sie den Abschnitt Technisches Referenzhandbuch in der Online-Hilfe oder besuchen Sie die Website der CXone Mpower Community Ein Kästchen mit einem Pfeil, der von der Mitte aus nach oben rechts weist..

Unterstützte Studio-Aktionen

Verwenden Sie die folgenden Studio-Aktionen in Ihren Skripten mit Amazon Lex V2:

  • VoiceBot Exchange
  • Textbot Exchange

Voicebot Exchange Aktion

Die Voicebot Exchange -Aktion ist für komplexe virtuelle Agenten vorgesehen oder für Situationen, in denen das Verhalten des virtuellen Agenten von Runde zu Runde angepasst werden muss. Sie überwacht das Gespräch zwischen dem Kontakt und dem virtuellen Agenten Runde für Runde. Es sendet jede transkribierte ÄußerungClosed Was ein Kontakt sagt oder tippt. an den virtuellen Agenten. Der virtuelle Agent analysiert die Äußerung hinsichtlich AbsichtClosed Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/eingibt; was der Kontakt mitteilen oder erreichen möchte. und Kontext und bestimmt die passende Antwort. Die Aktion gibt die Antwort des virtuellen Agenten an den Kontakt weiter. Wenn das Gespräch beendet ist, fährt die Aktion mit dem Skript fort.

Wenn Sie "barge in" oder "no input" konfigurieren möchten, ist eine zusätzliche Skripterstellung erforderlich.

Textbot Exchange-Aktion

Die TextBot Exchange-Aktion ist für komplexe virtuelle Agenten vorgesehen oder für Situationen, in denen das Verhalten des virtuellen Agenten von Runde zu Runde angepasst werden muss. Sie überwacht das Gespräch zwischen dem Kontakt und dem virtuellen AgentenClosed Eine Softwareanwendung, die Kundeninteraktionen anstelle eines Live-Mitarbeiters abwickelt. Runde für Runde. Jede ÄußerungClosed Was ein Kontakt sagt oder tippt. wird an den virtuellen Agenten gesendet. Der virtuelle Agent analysiert die Äußerung, um die AbsichtClosed Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/eingibt; was der Kontakt mitteilen oder erreichen möchte. und den Kontext festzustellen, und legt dann die passende Antwort fest. TextBot Exchange übergibt die Antwort an den Kontakt. Wenn das Gespräch beendet ist, fährt die Aktion mit dem Skript fort.