Aufforderung-Verhaltensweisen

Sie können einige Verhaltensweisen von sprachbasierten virtuellen AgentenGeschlossen Eine Softwareanwendung, die Kundeninteraktionen anstelle eines Live-Mitarbeiters abwickelt. in jeder Runde eines Gesprächs anpassen. Dazu zählen Komfortgeräusche, das Unterbrechen und Zeitüberschreitungen.

Sie können das Verhalten bei allen Runden eines Gesprächs oder nur für eine einzelne Runde anpassen:

  • All Conversation Turns: Erstellen Sie ein Snippet für Standardverhalten bei der nächsten Eingabeaufforderung, damit das Skript die definierten Verhaltensweisen als Standard für alle Gesprächsrunden verwendet.
  • One Turn: Wenn Sie für einen bestimmten Zug während einer Interaktion andere Verhaltensweisen festlegen möchten, erstellen Sie ein Snippet für Verhaltensweisen bei der nächsten Eingabeaufforderung . Zum Beispiel möchten Sie während normaler Gesprächsrunden DTMF-Erfassung nicht aktivieren. Aber wenn der virtuelle Agent den Kontakt auffordern muss, Informationen einzugeben, können Sie ein Snippet für diese Aufforderung erstellen, die Regeln für die DTMF-Erfassung beinhaltet.

Die auf dieser Seite beschriebenen Verhaltensweisen können nur in Studio-Skripten konfiguriert werden, die die Studio -Aktion mit der Eigenschaft nextPromptBehaviors, wie Voicebot Exchange oder Cloud Transcribe, verwenden. Zur Anpassung dieser Verhaltensweisen werden Snippet-Aktionen mit benutzerdefiniertem Code verwendet. Der Code muss in Snippet geschrieben werden, einer internen -Skriptsprache, die in Studio-Skripten verwendet wird.

Informationen zum Arbeiten mit diesen Snippets finden Sie in der Onlinehilfe zum Snippet Verhalten bei nächster Eingabeaufforderung oder zum Snippet Standardmäßiges Verhalten bei nächster Eingabeaufforderung.

Die auf dieser Seite beschriebenen Verhaltensweisen gelten auch für nicht-virtuelle Agentenanwendungen vonTurn-by-Turn Transcription, die die Cloud Transcribe Aktion verwenden.

Handhabung von Zeitüberschreitung und Stille

Sie können Optionen konfigurieren, um Pausen auf beiden Seiten der Konversation zwischen einem KontaktGeschlossen Die Person, die mit einem Agenten, IVR oder Bot in Ihrem Contact Center interagiert. und einem virtuellen AgentenGeschlossen Eine Softwareanwendung, die Kundeninteraktionen anstelle eines Live-Mitarbeiters abwickelt. zu behandeln. Virtuelle Agenten erleben Stille, wenn der Kontakt länger nicht antwortet oder wenn in der Mitte einer Äußerung Pausen auftreten. Kontakte können Stille erleben, wenn der virtuelle Agent länger nicht antwortet.

Zeitüberschreitungen beim Kontakt

Sie können festlegen, wie lange der virtuelle Agent in den folgenden Situationen auf eine Antwort des Kontakts wartet:

  • Zeitüberschreitung, wenn keine Antwort erfolgt: Sie können festlegen, wie lange der virtuelle Agent darauf wartet, dass der Kontakt in jeder Runde des Gesprächs zu sprechen beginnt. Der Timer für diesen Parameter beginnt, sobald der Kontakt mit dem Sprechen an der Reihe ist. Sie konfigurieren diese Einstellung mit dem silenceRules.millisecondsToWaitForUserResponse-Parameter.
  • Pausen in der Mitte einer Äußerung: Sie können festlegen, wie lange der virtuelle Agent darauf wartet, dass der Kontakt weiterspricht, wenn in der Mitte einer ÄußerungGeschlossen Was ein Kontakt sagt oder tippt. eine Pause auftritt. Sie konfigurieren diese Einstellung mit dem utteranceConfig.maxPostEnergySilenceMS-Parameter.  Wenn Ihr virtueller Agent mit Voicebot Gateway eingerichtet ist, wird dieser Parameter nicht unterstützt. Die Funktionalität wird vom Transkriptionsanbieter bereitgestellt.
  • Laute Umgebungen: Wenn sich der Kontakt in einer Umgebung befindet, in der viel Hintergrundlärm zu hören ist, kann der virtuelle Agent möglicherweise nur schlecht erkennen, ob der Kontakt noch spricht oder bereits mit dem Sprechen aufgehört hat. Dies ist besonders dann problematisch, wenn die Funktion zum Unterbrechen aktiviert ist. Sie können eine zusätzliche Zeitüberschreitung konfigurieren, um dem virtuellen Agenten mehr Zeit zu geben, die Aussagen des Kontakts zu verstehen. Weitere Informationen finden Sie im Abschnitt Handhabung von Hintergrundgeräuschen.

  • Pausen zwischen der Eingabe von DTMF-Ziffern: Wenn das Skript dem Kontakt die Eingabe von DTMFGeschlossen Signaltöne, die erzeugt werden, wenn ein Kontakt eine Taste auf seiner Telefontastatur drückt.-Tönen erlaubt, können Sie festlegen, wie lange das Skript zwischen den einzelnen Ziffern wartet. Sie konfigurieren diese Einstellung mit dem dtmfrules.interDigitTimeoutMilliseconds-Parameter.

Zeitüberschreitungen beim virtuellen Agenten

Manchmal dauert es länger als erwartet, bis der virtuelle Agent antwortet. Wenn Kontakte länger nichts hören, nehmen sie möglicherweise an, dass die Verbindung getrennt wurde. Für solche Situationen können Sie das Abspielen von Komfortgeräuschen konfigurieren. Wenn Kontakte Komfortgeräusche hören, wissen sie, dass der Anruf noch aktiv ist. Für Komfortgeräusche können Sie eine beliebige WAV-Audiodatei verwenden.

Mit den folgenden Eigenschaften können Sie Verzögerungen bei virtuellen Agenten verwalten:

  • Komfortgeräusch aktivieren: Mit dem silenceRules.engageComfortSequence-Parameter können Sie Komfortgeräusch aktivieren.
  • Auslöser für Komfortgeräusch definieren: Geben Sie mit dem silenceRules.botResponseDelayTolerance-Parameter an, wie lange in Millisekunden das Skript warten soll, bevor mit der Wiedergabe von Komfortgeräusch begonnen wird.
  • Datei mit Komfortaudio angeben: Sie können eine vorhandene Audiodatei verwenden oder eine neue Datei mit einer Studio-Aktion erstellen, die den Prompt Manager unterstützt, wie zum Beispiel Play. Sie können auch mit einer Anwendung eines Drittanbieters eine Datei erstellen und sie dann hochladen. Die Dateien müssen das WAV-Format haben. Erstellen Sie die AufforderungsreihenfolgeGeschlossen Ein Segment einer Audioaufforderung, die für den Kontakt abgespielt wird. für das Komfortgeräusch mit dem silenceRules.comfortPromptSequence.prompts[1].audioFilePath-Parameter.

Handhabung von Stille

Mit den folgenden Eigenschaften können Sie Stille bei Interaktionen mit virtuellen Agenten verwalten:

  • Komfortgeräusch: Wie im Abschnitt Zeitüberschreitungen beim virtuellen Agenten beschrieben, können Sie festlegen, dass eine Audiodatei als Komfortgeräusch abgespielt wird, wenn der Kontakt länger als erwartet auf die Antwort des virtuellen Agenten warten muss. Wenn Kontakte Komfortgeräusch hören, wissen sie, dass der Anruf noch aktiv ist.
  • Stille entfernen: Sie können die Stille am Anfang der Äußerungen entfernen, bevor das Audio an den virtuellen Agenten gesendet wird. Dies verringert die Audio-Größe und verhindert oder reduziert Latenz bei der Verarbeitung der einzelnen Antworten durch den virtuellen Agenten. Verwenden Sie den silenceRules.trimSilence-Parameter, um diese Funktion zu aktivieren. Standardmäßig ist sie deaktiviert.

Behandlung von Hintergrundgeräuschen

Wenn ein KontaktGeschlossen Die Person, die mit einem Agenten, IVR oder Bot in Ihrem Contact Center interagiert. während einer Konversation mit einem Geschlossen Eine Softwareanwendung, die Kundeninteraktionen anstelle eines Live-Mitarbeiters abwickelt.virtuellen AgentenCXone Mpower spricht, wartet auf Stille, bevor er die Geschlossen Was ein Kontakt sagt oder tippt.Äußerung an den virtuellen Agenten sendet. Wenn sich der Kontakt in einer lauten Umgebung befindet, kann der virtuelle Agent möglicherweise nur schlecht erkennen, ob der Kontakt noch spricht oder bereits mit dem Sprechen aufgehört hat. Dies kann besonders dann problematisch sein, wenn die Funktion zum Unterbrechen aktiviert ist.

Die Voicebot Gateway ändert die Art und Weise, wie Virtual Agent Hub Ereignisse wie „Barge“ bei Hintergrundgeräuschen behandelt. Die Informationen in diesem Abschnitt gelten nur für virtuelle Agenten, die nicht mit Voicebot Gatewayeingerichtet wurden. Im Abschnitt Barge auf dieser Seite erfahren Sie, wie Voicebot Gateway mit diesem Ereignis umgeht.

Hintergrundgeräusch kann dazu führen, dass der millisecondsToWaitForUserResponse-Parameter ausgelöst wird. Wenn die Hintergrundgeräusche so lange anhalten, dass der Wert für die Zeitüberschreitung "millisecondsToWaitForUserResponse" erreicht wird, folgt das Skript der userInputTimeout-Verzweigung.

Damit der virtuelle Agent derartige Situationen nicht so interpretiert, als hätte der Kontakt nicht geantwortet, können Sie den utteranceConfig.maxUtteranceMilliseconds-Parameter in den Snippets für das Verhalten bei Aufforderungen konfigurieren. Diese Einstellung bietet den Vorteil, dass das Skript das erfasste Audio an den virtuellen Agenten sendet, wenn die Zeitüberschreitung erreicht wird. Der virtuelle Agent interpretiert das Audio so gut wie möglich und folgt der entsprechenden Verzweigung.

Der Timer für maxUtteranceMilliseconds startet, sobald der virtuelle Agent Audio erkennt. Dabei spielt es keine Rolle, ob der Kontakt spricht oder ob Hintergrundgeräusche zu hören sind. Mit dem maxUtteranceMilliseconds-Parameter wird der millisecondsToWaitForUserResponse-Timer abgebrochen. Dadurch wird das Zeitüberschreitungslimit im Wesentlichen um die Länge der Pause oder die Zeitspanne zwischen millisecondsToWaitForUserResponse und maxUtteranceMilliseconds verlängert. Wenn das maxUtteranceMilliseconds-Limit erreicht ist, versucht der virtuelle Agent, die AbsichtGeschlossen Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/tippt; was der Kontakt mitteilen oder erreichen möchte. des Kontakts aus dem aufgenommenen Audio zu erkennen. Das Skript folgt einer der folgenden Verzweigungen, je nachdem, zu welchem Schluss der virtuelle Agent gekommen ist:

  • Absicht gefunden: Wenn der virtuelle Agent eine Absicht feststellt, folgt das Skript der PromptAndCollectNextResponse-Verzweigung.

  • Keine Absicht gefunden: Wenn der virtuelle Agent keine Absicht feststellen kann, folgt das Skript entweder der UserInputNotUnderstood-Verzweigung oder der UserInputTimeout-Verzweigung. Es folgt der Verzweigung, die für die jeweilige Situation am besten geeignet ist.

Standardeinstellung

Es gibt keine Standardeinstellung für maxUtteranceMilliseconds. Die passende Zeitdauer variiert je nach der Situation. Wenn eine kurze Antwort wie Ja oder Nein vom Kontakt erwartet wird, kann maxUtteranceMilliseconds auf 10 Sekunden eingestellt werden. Für andere Antworten, wie Kontonummern oder Adressen, ist wahrscheinlich mehr Zeit erforderlich.

DTMF-Erfassung

Sie können Ihr Skript so konfigurieren, dass es DTMFGeschlossen Signaltöne, die erzeugt werden, wenn ein Kontakt eine Taste auf seiner Telefontastatur drückt.-Töne vom KontaktGeschlossen Die Person, die mit einem Agenten, IVR oder Bot in Ihrem Contact Center interagiert. empfängt. Verwenden Sie die folgenden Parameter zur Konfiguration der DTMF-Erfassung:

  • DTMF-Erkennung aktivieren: Stellen Sie den audioCollectionRules.dtmfRules.detectDtmf-Parameter auf true ein und fügen Sie dann Parameter für das gewünschte Verhalten bei der DTMF-Erfassung hinzu.
  • DTMF-Tonpuffer löschen: Stellen Sie audioCollectionRules.dtmfRules.clearDigits auf true ein, wenn nur Töne erfasst werden sollen, die eingegeben werden, nachdem das Skript die Aktion ausführt, die den Kontakt zur Eingabe auffordert. Damit werden DTMF-Töne aus dem Puffer gelöscht, wenn der Kontakt Tasten auf seiner Telefontastatur drückt.

    Ihr virtueller Agent muss für die Verarbeitung von DTMF-Eingaben in der Verwaltungskonsole des Anbieters konfiguriert sein. Selbst wenn Sie clearDigits auf true eingestellt haben, muss Ihr virtueller Agent in der Lage sein, Fehler aufgrund zusätzlicher DTMF-Ziffern oder Verzögerungen zwischen den Eingaben zu beheben. Die Aktion VOICEBOT EXCHANGE leitet die vom Kontakt erfassten Eingaben an den virtuellen Agenten weiter.

  • Ende-Zeichen erforderlich: Wenn Kontakte ein bestimmtes Zeichen eingeben müssen, um anzugeben, dass sie die Eingabe von Ziffern beendet haben, verwenden Sie den audioCollectionRules.dtmfRules.terminationCharacter-Parameter und stellen Sie den Wert auf das Zeichen ein, das Kontakte eingeben sollen. Beispielsweise wird das Rautezeichen (#) häufig als Ende-Zeichen verwendet.
  • Ende-Zeichen entfernen: Wenn ein Ende-Zeichen erforderlich ist, können Sie festlegen, dass das Skript den Wert des Ende-Zeichens aus den erfassten DTMF-Tönen entfernt. Wenn das Ende-Zeichen entfernt wird, wird es nicht vom Skript verarbeitet. Geben Sie den audioCollectionRules.dtmfRules.stripTerminator-Parameter an und stellen Sie ihn auf true ein, um das Ende-Zeichen zu entfernen.
  • Zeitüberschreitung zwischen Ziffern konfigurieren: Sie können eine Zeitüberschreitung konfigurieren, damit das Skript Situationen verarbeiten kann, in denen es sehr lange dauert, bis der Kontakt die nächste Ziffer eingibt. Geben Sie das audioCollectionRules.dtmfRules.interDigitTimeoutMilliseconds-Zeichen ein und geben Sie an, wie lange (in Millisekunden) das Skript auf die nächste Ziffer warten soll.
  • Maximale Anzahl an zulässigen Ziffern festlegen: Sie können festlegen, dass das Skript eine maximale Anzahl an Ziffern akzeptiert. Wenn ein Ende-Zeichen erforderlich ist, schließen Sie es in den Wert für diese Eigenschaft ein. Wenn der Kontakt beispielsweise aufgefordert wird, eine achtstellige Kontonummer und ein Ende-Zeichen einzugeben, stellen Sie audioCollectionRules.dtmfRules.maxDigits auf 9 ein.

Unterbrechungen und Barge

Virtuelle Agenten müssen in der Lage sein, mit Unterbrechungen umzugehen. Dies umfasst Fälle, in denen der Kontakt den virtuellen Agenten unterbricht und Fälle, in denen der virtuelle Agent den Kontakt unterbrechen muss, beispielsweise wenn dieser zu lange spricht. Sie können Parameter in den Prompt Behaviors-Snippets in Ihrem Skript festlegen, um diese Verhaltensweisen zu steuern. Ein weiterer Aspekt der Unterbrechungen, den Sie konfigurieren können, ist wie lange der virtuelle Agent wartet, nachdem er festgestellt hat, dass der KontaktGeschlossen Die Person, die mit einem Agenten, IVR oder Bot in Ihrem Contact Center interagiert. mit dem Sprechen fertig ist, bevor er antwortet.

Erlauben Sie dem virtuellen Agenten, ausschweifende Gespräche zu unterbrechen.

Manchmal antworten Kontakte dem virtuellen Agenten mit zu vielen Details oder geraten ins Abschweifen. Sie können Ihr Skript so konfigurieren, dass es diese Situationen bewältigt, indem Sie den Parameter continuousTranscriptionUtteranceConfig.maxUtteranceMilliseconds in Ihrem Code-Snippet Default Next Prompt Behaviors festlegen. Dieser Parameter definiert die maximale Zeitspanne in Millisekunden, die der Kontakt sprechen darf.

Spricht der Kontakt nach Ablauf der konfigurierten Zeitspanne immer noch, unterbricht der virtuelle Agent das Gespräch. Sie müssen in den Konfigurationen des virtuellen Agenten in der Verwaltungskonsole des Anbieters eine intentGeschlossen Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/tippt; was der Kontakt mitteilen oder erreichen möchte. eingerichtet haben, um die Unterbrechung des Kontakts zu handhaben.

Diese Eigenschaft kann nur im Standardverhalten für die nächste Eingabeaufforderung-Snippet festgelegt werden. Dies liegt daran, dass Skriptparameter, die die Transkription beeinflussen, nicht mehr geändert werden können, nachdem Continuous Stream Transcription begonnen hat.

Erlauben Sie Kontakten, den virtuellen Agenten zu unterbrechen (Barge).

Barge ermöglicht es Kontakten, über den virtuellen AgentenGeschlossen Eine Softwareanwendung, die Kundeninteraktionen anstelle eines Live-Mitarbeiters abwickelt.-Audio zu sprechen, der vom Skript abgespielt wird. Wie Sie diese Funktion aktivieren, hängt davon ab, ob Ihr virtueller Agent Voicebot Gateway verwendet, wie in den folgenden Abschnitten beschrieben.

Barge mit Voicebot Gateway aktivieren

Die Parameter, die die Barge-Funktion aktivieren, müssen im Standard-Prompt-Verhalten-Snippet konfiguriert werden. Der Codeausschnitt muss vor der CONTINUOUS TRANSCRIPTION-Aktion im Skript platziert werden. Konfigurieren Sie die folgenden Parameter:

  • Setze den Parameter audioCollectionRules.bargeConfiguration.enableSpeakerBarge auf true.
  • Setze audioCollectionRules.bargeConfiguration.useContinuousTranscription auf 1.
  • Setze audioCollectionRules.utteranceConfiguration.bargeOnUtteranceBeginRatherThanEnd auf 1.
  • Setze audioCollectionRules.continuousTranscriptionUtteranceConfig.numberOfWordsToTriggerUtteranceBegin auf eine Zahl zwischen 1 und 10. Dies entspricht der Anzahl der Wörter, die der Kontakt sprechen muss, bevor der virtuelle Agent sich unterbrechen lässt. Die Standardeinstellung ist 3. Dieser Parameter wird ignoriert, wenn bargeOnUtteranceBeginRatherThanEnd auf 0 gesetzt ist.
  • Fügen Sie maxPostEnergySilenceMS, utteranceConfig.maxUtteranceMilliseconds oder millisecondsToWaitForUserResponse nicht in Ihre Prompt Behaviors-Snippets ein.

Barge aktivieren ohne Voicebot Gateway

Setzen Sie im Snippet „Prompt Behaviors“ den Parameter audioCollectionRules.bargeConfiguration.enableSpeakerBarge auf true.

Wenn Sie die Aufschaltung mit enableSpeakerBarge aktivieren, reagiert der virtuelle Agent besonders empfindlich auf Hintergrundgeräusche. Daher kann der virtuelle Agent möglicherweise nur schlecht erkennen, ob der Kontakt noch spricht oder bereits mit dem Sprechen aufgehört hat. Um zu verhindern, dass der virtuelle Agent Situationen wie diese so behandelt, als ob der Kontakt nicht reagiert hätte, können Sie den Parameter in utteranceConfig.maxUtteranceMillisecondsPrompt Behaviors Code-Snippets konfigurieren.

Abstand zwischen den Kurven

Sie können konfigurieren, wie lange der virtuelle Agent wartet, nachdem der Kontakt eine Äußerung beendet hat, bevor er antwortet. Dies ist normalerweise eine sehr kurze Pause. Sie können damit einen Abstand zwischen den Äußerungen konfigurieren, der menschlicher wirkt. Wenn der virtuelle Agent zu sprechen beginnt, sobald der Kontakt eine Äußerung beendet hat, kann sich der Kontakt gehetzt fühlen oder das Gefühl haben, dass der virtuelle Agent über ihn hinweg spricht.

Um diese Pause zu konfigurieren, fügen Sie continuousTranscriptionUtteranceConfig.maxPostSilenceMS zu Ihrem Standardverhalten für die nächste Eingabeaufforderung-Snippet hinzu. Der Wertebereich für diese Eigenschaft liegt zwischen 100 und 1000 Millisekunden. Die Standardeinstellung ist 100.

Diese Eigenschaft kann nur im Standardverhalten für die nächste Eingabeaufforderung-Snippet festgelegt werden. Dies liegt daran, dass Skriptparameter, die die Transkription beeinflussen, nicht mehr geändert werden können, nachdem Continuous Stream Transcription begonnen hat.