Google Dialogflow CX

Google Dialogflow CX ist eine Drittanbieterplattform, die sprach- und chatbasierte virtuelle Agenten bereitstellt. Virtuelle Agenten interpretieren, was Ihre Kontakte sagen oder im Chatfenster schreiben, und reagieren entsprechend. Sie nutzen dazu Technologien wie:

Virtuelle Agenten sind flexibel und können eine Reihe von Funktionen anbieten, die den Anforderungen Ihres Unternehmens entsprechen. Sie können Ihren virtuellen Agenten zum Beispiel so gestalten, dass er einige einfache Aufgaben erledigt oder als komplexer interaktiver Agent fungiert.

CXone unterstützt die Verwendung von Google Dialogflow CX mit Sprach- und digitalen chatbasierten Kanälen. Für Sprachkanäle können Sie den Kanal in Virtueller Agenten-Hub einrichten oder eine SIPGeschlossen Protokoll zur Signalisierung und Steuerung von Multimedia-Kommunikationssitzungen wie Sprach- und Videoanrufen.-Rückkanal-Verbindung verwenden, die sich außerhalb von Virtueller Agenten-Hub befindet.

 

CXone unterstützt äußerungsbasierte Funktionen mit Google Dialogflow CX. Funktionen, die Audio-Streaming erfordern, werden nicht unterstützt.

Dialogflow ES und CX sind öffentliche Angebote, die Sie direkt über NICE CXone erwerben können. Die öffentliche Version umfasst jedoch weder die vollständigen Telefonfunktionen noch systemeigene Verbindungen zwischen Dialogflow und Google Contact Center AI Agent Assist. Diese Funktionen sind beim Kauf über NICE CXone-Partner verfügbar.

Vergleich von Google Dialogflow CX und ES

CXone unterstützt Google Dialogflow ES und CX. Die beiden Versionen sind ähnlich, weisen aber einige wesentliche Unterschiede auf.

Dialogflow ES ist für kleine, einfache Bots geeignet. Es simuliert nichtlineare Gesprächsverläufe unter Verwendung einer flachen Struktur von Intentionen und Kontext als Leitfaden. Dieser Ansatz eignet sich nicht für große oder komplexe Bots. Sie können Kontexte mit der customPayload-Eigenschaft der Virtueller Agenten-Hub Studio-Aktion übergeben, die Sie in Ihren Skripten verwenden. Diese Bots verwenden Kontextdaten, um die Absichten des Kontakts zu ermitteln.

Dialogflow CX unterstützt komplexe, nichtlineare Gesprächsabläufe, die für große, komplexe Bots geeignet sind. Es ermöglicht die Wiederverwendung von AbsichtenGeschlossen Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/tippt; was der Kontakt mitteilen oder erreichen möchte und erfordert keine Kontextinformationen. Sie können customPayload-Daten übergeben, müssen aber keine Kontextinformationen angeben.

Gesprächsablauf für sprach- und textbasierte virtuelle Agenten

Der Beginn des Gesprächs unterscheidet sich bei sprach- und textbasierten virtuellen Agenten:

Nachdem das Gespräch begonnen hat, analysiert der virtuelle Agent die Äußerungen des Kontakts, um den Zweck oder die Bedeutung dahinter zu ermitteln. Dies wird als Absicht des Kontakts bezeichnet. Nachdem die Absicht identifiziert wurde, sendet der virtuelle Agent eine passende Antwort an den Kontakt. Es gibt zwei Methoden für das Senden von Antworten. Sprachbasierte virtuelle Agenten können beide Methoden verwenden, textbasierte virtuelle Agenten dagegen nur eine. Diese Methoden sind:

  • Austausch über Virtueller Agenten-HubAnfragen und Antworten können Zug um Zug über Virtueller Agenten-Hub und das Skript gesendet werden. Bei dieser Option kann das Verhalten des virtuellen Agenten bei jedem "Zug", also einem Frage-Antwort-Paar, angepasst werden. Für sprachbasierte virtuelle Agenten ist dies die äußerungsbasierte Verbindungsmethode. Diese Methode wird von allen Anbietern textbasierter virtueller Agenten unterstützt.
  • Direktes Gespräch zwischen Kontakt und virtuellem AgentenAnfragen und Antworten werden zwischen dem virtuellen Agenten und dem Kontakt hin und her gesendet. CXone bleibt mit dem virtuellen Agentendienst während des gesamten Gesprächs verbunden, nimmt aber nicht daran teil. CXone wartet auf das Signal, dass das Gespräch abgeschlossen ist oder der Kontakt an einen Live-Agenten weitergeleitet werden muss.Für sprachbasierte virtuelle Agenten ist dies die SIPGeschlossen Protokoll zur Signalisierung und Steuerung von Multimedia-Kommunikationssitzungen wie Sprach- und Videoanrufen.Rückkanal-Verbindungsmethode. Diese Option wird von keinem Anbieter textbasierter virtueller Agenten unterstützt.

Am Ende des Gesprächs sendet der virtuelle Agent ein Signal an das Studio-Skript. Er kann signalisieren, dass das Gespräch abgeschlossen ist oder dass der Kontakt an einen Live-Agenten weitergeleitet werden muss. Wenn das Gespräch abgeschlossen ist, endet die Interaktion. Wenn ein Live-Agent benötigt wird, erstellt das Skript eine entsprechende Anforderung. Der Kontakt wird an einen verfügbaren Agenten weitergeleitet,

Nachdem das Gespräch abgeschlossen ist, können Aufgaben zur Nachbearbeitung ausgeführt werden, zum Beispiel die Erfassung von Informationen in einem CRMGeschlossen Systeme von Drittanbietern, die z. B. Kontakte, Vertriebsinformationen, Supportdetails und Fallgeschichten verwalten..

Voraussetzungen

Um virtuelle Agenten von Google Dialogflow CX mit CXone zu verwenden, ist Folgendes erforderlich:

  • Ein Google Cloud-Plattformkonto.

  • Ein virtueller Agent des Typs Google Dialogflow CX, der für Antworten konfiguriert und trainiert wurde, die die Anfragen Ihrer Kontakte erfüllen. Um die Integration in CXone abzuschließen, benötigen Sie den Namen des virtuellen Agenten aus den Einstellungen des Agenten in der Google Dialogflow CX-Konsole.

Alpha Visibility in Google

Alpha Visibility ist ein Google-Programm, das Google Cloud-Projekten Zugriff auf Funktionen ermöglicht, die auf anderem Wege nicht verfügbar sind. Alpha Visibility ist nicht erforderlich, um Dialogflow CX mit CXone zu verwenden. Es gibt jedoch einen Fall, in dem Sie Alpha Visibility möglicherweise aktivieren lassen müssen.

Alpha Visibility wird benötigt, damit die letzte Benutzeräußerung (zusammen mit Informationen zur Absicht) vom virtuellen Agenten von Dialogflow zurückgegeben wird. Sie können diese Informationen in einem Skript-Trace anzeigen. Wenn die Variable lastUserUtterance leer ist, obwohl sie Daten enthalten sollte, ist Alpha Visibility möglicherweise nicht für Ihr Projekt aktiviert. Wenn Sie diese Informationen benötigen, muss Alpha Visibility für Ihr Google Cloud-Projekt aktiviert sein.

Komponenten einer Integration

Zur Integration von Google Dialogflow CX gehören die folgenden Komponenten:

Rich Media-Unterstützung für textbasierte virtuelle Agenten

Wenn Ihr Kanal dies unterstützt, können Sie Rich MediaGeschlossen Elemente in digitalen Nachrichten wie Schaltflächen, Bilder, Menüs oder Auswahlmöglichkeiten-Inhalte in die Nachrichten einschließen. Die Art von Rich Media, die gesendet werden können, unterscheidet sich von Kanal zu Kanal, wie in der folgenden Tabelle gezeigt.

  Adaptive Kartes HTML und Markdown-Text Rich-Link Schnellantworten Listenwähler Zeitwähler Formularnachricht
Apple Messages für Unternehmen Rotes X, das "nicht unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet

Digital Chat

Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet
E-Mail-Adresse Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet Verwendet Fallback-Text Rotes X, das "nicht unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet
Facebook Messenger Rotes X, das "nicht unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet
WhatsApp Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet
Google Business Messages Rotes X, das "nicht unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Grünes Häkchen, das "unterstützt" bedeutet Rotes X, das "nicht unterstützt" bedeutet

Unterstützt: Grünes Häkchen, das "unterstützt" bedeutet

Nicht unterstützt: Rotes X, das "nicht unterstützt" bedeutet

Weitere Informationen über die Unterstützung digitaler Kanäle für Rich Media.

Wenn Sie Rich Media-Inhalt in Antworten textbasierter virtueller Agenten einbeziehen möchten, konfigurieren Sie dies in der Verwaltungskonsole Ihres virtuellen Agenten. Es sollte in der Konfiguration jeder Antwort enthalten sein, die Rich Media sendet.

Rich Media-Inhalt wird als JSON gesendet. Befolgen Sie beim Erstellen Ihrer Rich Media-JSON das Schema für den digitalen Kanal, den Sie verwenden. Die Schemata sind für jeden Kanal unterschiedlich. Suchen Sie die JSON-Daten für Medieninhalte, die Sie verwenden möchten, und fügen Sie sie dann zu den Konfigurationen der Antwortnachrichten hinzu, die Sie in Google Dialogflow CX erstellen.

Einige JSON-Schemata sind in der Virtueller Agenten-Hub Online-Hilfe angegeben. Sie können das Digital Experience JSON-Mirror-Tool verwenden, um Ihr JSON-Schema zu verifizieren, bevor Sie es zu Skripten oder virtuellen Agenten hinzufügen.

Gesprächstranskripte

Sie können das Transkript und die Absichtsinformationen von allen Google Dialogflow CX Sprach- Gesprächen erfassen. Wenn Sie eine SIP-Rückkanalverbindung mit Dialogflow CX verwenden, ist diese Option für Sie nicht verfügbar. erfassen. Die erfassten Daten können Sie auf beliebige Weise verwenden. Sie könnten sie zum Beispiel diesem Agenten anzeigen, wenn die Interaktion an einen Live-Agenten weitergeleitet wird. Eine andere Möglichkeit ist, die Daten als dauerhafte Aufzeichnung des Gesprächs zu speichern. Sie haben die Wahl, ob Sie nur das Transkript, nur die Absichtsinformationen, beides oder keins davon erfassen.

Falls Sie diese Informationen erfassen wollen, müssen Sie dies in den Google Dialogflow CX Konfigurationseinstellungen in Virtueller Agenten-Hub aktivieren. Sie müssen auch ein Studio-Skript konfigurieren, das für Ihren virtuellen Agenten verwendet wird. Das Skript muss eine -Aktion enthalten, die für die Verwaltung der erfassten Daten konfiguriert wurde. Erfasste Daten werden temporär gespeichert, solange die Kontakt-ID besteht. Wenn Sie die Daten dauerhaft speichern möchten, können Sie das Skript so konfigurieren, dass es die Daten an ein Archiv sendet. Sie sind für das Bereinigen persönlich identifizierbarer Informationen (PII) aus allen gespeicherten Daten verantwortlich.

Contact Center AI Insights

Wenn Sie Google Dialogflow Contact Center AI Insights verwenden, müssen Sie eine zusätzliche Konfiguration an Ihrem Studio-Skript vornehmen. Die Contact Center AI Insights funktioniert nur bei Gesprächen, die als abgeschlossen markiert wurden.

Üblicherweise dauert es 24 Stunden, bis Gespräche von virtuellenDialogflow CX-Agenten als abgeschlossen markiert werden. Sie können das Schließen jedoch erzwingen, indem Sie am Ende jeder Interaktion eine automatisierte Absicht an Dialogflow senden.

Dazu müssen Sie den Wert conversation_complete über die Eigenschaft AutomatedIntent der Voicebot Exchange -Aktion oder der Textbot Exchange -Aktion nach Ende der Interaktion senden. Sie können diesen Wert in der Eigenschaft hartkodieren oder Sie können ihn in einer Variablen senden.

Hinweise zum Sprachkontext

Hinweise zum Sprachkontext sind Wörter und Ausdrücke, die an den Transkriptionsdienst gesendet werden. Sie sind hilfreich, wenn es Wörter oder Phrasen gibt, die auf eine bestimmte Weise transkribiert werden müssen. Hinweise zum Sprachkontext können zu einer höheren Genauigkeit der Spracherkennung beitragen. Sie können sie zum Beispiel verwenden, um die Transkription von Informationen wie Adressnummern oder Währungsausdrücke zu verbessern.

Wenn Sie Hinweise zum Sprachkontext verwenden möchten, müssen Sie sie Ihrem Skript hinzufügen. Hinweise zum Sprachkontext von Dialogflow werden in der eigenen Payload gesendet. Sie müssen zwei Parameter einschließen:

  • speechContexts.phrases: Das Google Klassen-Token Ein Kästchen mit einem Pfeil, der von der Mitte aus nach oben rechts weist. für den Hinweis, den Sie geben möchten. Das Token muss der Sprache und dem Gebietsschema Ihrer Kontakte entsprechen. Wenn Sie mehrere Tokens hinzufügen möchten, fügen Sie einen speechContexts.phrases-Parameter für jedes Token hinzu.
  • speechContexts.boost: Einen gewichteten nummerischen Wert zwischen 1-20 für die angegebene phrase. Der Transkriptionsdienst verwendet diesen Wert bei der Auswahl einer möglichen Transkription für Wörter in den Audiodaten. Je höher der Wert desto größer die Wahrscheinlichkeit, dass der Transkriptionsdienst dieses Wort oder diese Phrase aus den Alternativen auswählt.

Beispiel:

DYNAMIC customPayload
customPayload.speechContexts.phrases="$OOV_CLASS_ALPHANUMERIC_SEQUENCE"
customPayload.speechContexts.boost=10		

Sie können die Inhalte dieses Parameters in Studio -Traces und Anwendungsprotokollen sehen.

Richtlinien für eigene Skripte

Bevor Sie einen Virtual AgentGeschlossen Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/tippt; was der Kontakt mitteilen oder erreichen möchte einbinden, müssen Sie wissen:

  • Welches Skript Sie um einen Virtual Agent erweitern möchten.
  • Die Studio -Aktion des virtuellen Agenten, die Sie verwenden müssen.

  • Wo die Studio Aktionen in Ihrem Skriptablauf platziert werden müssen.
  • Die Konfigurationsanforderungen, die für den von Ihnen verwendeten Virtual Agent gelten.
  • So schließen Sie das Skript ab, nachdem Sie die Aktion des Virtual Agent hinzugefügt haben. Sie müssen eventuell:
    • Fügen Sie dem Skript mithilfe von Snippet-Aktionen nach Bedarf Snippets für die Initialisierung hinzu. Dies ist erforderlich, falls Sie das Verhalten Ihres virtuellen Agenten anpassen möchten.
    • Konfigurieren Sie die Aktionskonnektoren neu, um einen ordnungsgemäßen Kontaktablauf zu gewährleisten und mögliche Fehler zu korrigieren.
    • Verwenden Sie die OnReturnControlToScript-Verzweigung, um das Auflegen oder das Beenden der Interaktion zu handhaben. Wenn Sie für das Auflegen oder Beenden der Interaktion die Default-Verzweigung verwenden, funktioniert Ihr Skript möglicherweise nicht wie vorgesehen.
    • Vervollständigen und testen Sie das Skript.

Stellen Sie sicher, dass alle Parameter in den Aktionen des virtuellen Agenten, die Sie Ihrem Skript hinzufügen, so konfiguriert sind, dass sie die richtigen Daten übergeben. In den Online-Hilfeseiten für die Aktionen wird die Konfiguration der einzelnen Parameter beschrieben.

Der virtuelle Agent muss auch vollständig auf Anbieterseite konfiguriert werden. Stellen Sie sicher, dass er mit allen Standardnachrichten konfiguriert ist, die möglich sind. Dazu zählen Fehlermeldungen sowie Nachrichten, die darauf hinweisen, dass eine Absicht erfüllt worden ist.

Möglicherweise können Sie Vorlagenskripte für die Verwendung mit Integrationen virtueller Agenten von NICE CXone Expert Services erhalten. Wenn Sie Hilfe bei der Skripterstellung in Studio benötigen, wenden Sie sich an CXone Account Representative, lesen Sie den Abschnitt Technisches Referenzhandbuch in der Online-Hilfe oder besuchen Sie die Website der NICE CXone Community Ein Kästchen mit einem Pfeil, der von der Mitte aus nach oben rechts weist..

Studio-Aktion für sprachbasierte virtuelle Agenten

Die Voicebot Exchange -Aktion ist für komplexe virtuelle Agenten vorgesehen oder für Situationen, in denen das Verhalten des virtuellen Agenten von Runde zu Runde angepasst werden muss. Sie überwacht das Gespräch zwischen dem Kontakt und dem virtuellen Agenten Runde für Runde. Jede ÄußerungGeschlossen Was ein Kontakt sagt oder tippt. wird an den virtuellen Agenten gesendet. Der virtuelle Agent analysiert die Äußerung hinsichtlich AbsichtGeschlossen Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/tippt; was der Kontakt mitteilen oder erreichen möchte und Kontext und bestimmt die passende Antwort. Die Aktion gibt die Antwort des virtuellen Agenten an den Kontakt weiter. Wenn das Gespräch beendet ist, fährt die Aktion mit dem Skript fort.

Wenn Sie "barge in" oder "no input" konfigurieren möchten, ist eine zusätzliche Skripterstellung erforderlich.

Studio-Aktionen für textbasierte virtuelle Agenten

Die TextBot Exchange-Aktion ist für komplexe virtuelle Agenten vorgesehen oder für Situationen, in denen das Verhalten des virtuellen Agenten von Runde zu Runde angepasst werden muss. Sie überwacht das Gespräch zwischen dem Kontakt und dem virtuellen AgentenGeschlossen Eine Softwareanwendung, die Kundeninteraktionen anstelle eines Live-Mitarbeiters abwickelt. Runde für Runde. Jede ÄußerungGeschlossen Was ein Kontakt sagt oder tippt. wird an den virtuellen Agenten gesendet. Der virtuelle Agent analysiert die Äußerung, um die AbsichtGeschlossen Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/tippt; was der Kontakt mitteilen oder erreichen möchte und den Kontext festzustellen, und legt dann die passende Antwort fest. TextBot Exchange übergibt die Antwort an den Kontakt. Wenn das Gespräch beendet ist, fährt die Aktion mit dem Skript fort.