<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Dialogflow - AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</title>
	<atom:link href="https://www.nuecho.com/fr/category/dialogflow-fr/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.nuecho.com/fr/category/dialogflow-fr/</link>
	<description>Nu Echo</description>
	<lastBuildDate>Wed, 23 Nov 2022 22:43:05 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.nuecho.com/wp-content/uploads/2019/11/cropped-favicon-32x32.png</url>
	<title>Dialogflow - AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</title>
	<link>https://www.nuecho.com/fr/category/dialogflow-fr/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Du chatbot au voicebot: plus qu’un peu de maquillage</title>
		<link>https://www.nuecho.com/fr/du-chatbot-au-voicebot-plus-quun-peu-de-maquillage/#utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=du-chatbot-au-voicebot-plus-quun-peu-de-maquillage</link>
		
		<dc:creator><![CDATA[Karine Dery]]></dc:creator>
		<pubDate>Thu, 15 Sep 2022 15:12:12 +0000</pubDate>
				<category><![CDATA[Blogue]]></category>
		<category><![CDATA[Dialogflow]]></category>
		<category><![CDATA[Agent virtuel Centre de contact]]></category>
		<category><![CDATA[agent virtuels]]></category>
		<category><![CDATA[cas d'utilisation agent virtuels]]></category>
		<category><![CDATA[Chatbot]]></category>
		<category><![CDATA[contact center automation]]></category>
		<category><![CDATA[Design conversationnel]]></category>
		<category><![CDATA[DialogFlow]]></category>
		<category><![CDATA[IA conversationnelle]]></category>
		<category><![CDATA[Modèle NLU]]></category>
		<category><![CDATA[Modèle TALN]]></category>
		<category><![CDATA[Voicebot]]></category>
		<category><![CDATA[voicebot persona]]></category>
		<guid isPermaLink="false">https://www.nuecho.com/?p=9534</guid>

					<description><![CDATA[<p>Dans notre métier, on entend souvent “Après avoir fait l’assistant vocal, on pourra utiliser le dialogue pour ajouter un chatbot sur notre site!!” ou encore “Maintenant qu’on a notre chatbot, faire un voicebot sera si facile”. À première vue, il suffit d’ajouter ou d’enlever une couche de reconnaissance de la parole (speech-to-text, STT) et de [&#8230;]</p>
<p>The post <a href="https://www.nuecho.com/fr/du-chatbot-au-voicebot-plus-quun-peu-de-maquillage/">Du chatbot au voicebot: plus qu’un peu de maquillage</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
<p>The post <a href="https://www.nuecho.com/fr/du-chatbot-au-voicebot-plus-quun-peu-de-maquillage/">Du chatbot au voicebot: plus qu’un peu de maquillage</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Dans notre métier, on entend souvent “Après avoir fait l’assistant vocal, on pourra utiliser le dialogue pour ajouter un chatbot sur notre site!!” ou encore “Maintenant qu’on a notre chatbot, faire un voicebot sera si facile”. À première vue, il suffit d’ajouter ou d’enlever une couche de reconnaissance de la parole (</span><i><span style="font-weight: 400;">speech-to-text</span></i><span style="font-weight: 400;">, STT) et de synthèse de la parole (</span><i><span style="font-weight: 400;">text-to-speech</span></i><span style="font-weight: 400;">, TTS) à l’un pour obtenir l’autre. Pourtant, l’expérience nous a appris qu’il faudrait un coup de baguette magique pour que ce soit aussi simple, et à travers ce post, j’essaierai de le démontrer à l’aide de quelques exemples.</span></p>
<h2></h2>
<p>&nbsp;</p>
<h2><span style="font-weight: 400;">Génération de l’extrant</span></h2>
<h3><span style="font-weight: 400;">Présentation d’informations complexes</span></h3>
<p><span style="font-weight: 400;">Pour un chatbot, il est possible de complémenter le texte par des images, des hyperliens, des carrousels, etc. Certains cas d’utilisation, comme l’aide à la navigation, ou des suggestions d’achats, sont impensables sans ces outils.</span></p>
<p><span style="font-weight: 400;">Dans d’autres cas, plusieurs interactions vocales pourraient être nécessaires pour obtenir le même résultat qu’un seul extrant visuel complexe. Voici, par exemple, ma meilleure tentative de reproduction extrant pour extrant d’un bot de prise de rendez-vous:</span></p>
<p><span style="font-weight: 400;"><img decoding="async" class="wp-image-9517 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/rdv-c-fr.png" alt="" width="358" height="522" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/rdv-c-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/rdv-c-fr-206x300.png 206w" sizes="(max-width: 358px) 100vw, 358px" /></span><span style="font-weight: 400;"><img decoding="async" class="wp-image-9519 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/rdv-v-fr.png" alt="" width="358" height="368" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/rdv-v-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/rdv-v-fr-292x300.png 292w" sizes="(max-width: 358px) 100vw, 358px" /></span></p>
<h3></h3>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">Trac</span><span style="font-weight: 400;">es des interactions précédentes</span></h3>
<p><span style="font-weight: 400;">Que fait un chatbot si l’utilisateur est inattentif, a mauvaise mémoire, ou a oublié de mettre ses lunettes? Rien! L’extrant reste là pour que l’utilisateur le relise comme bon lui semble, ce qui rend certains cas nécessaires à l’oral très inutiles à supporter à l’écrit: </span></p>
<p><span style="font-weight: 400;"><img decoding="async" class="wp-image-9521 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/repeter-fr.png" alt="" width="358" height="440" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/repeter-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/repeter-fr-244x300.png 244w" sizes="(max-width: 358px) 100vw, 358px" /></span></p>
<h3></h3>
<h3></h3>
<h3><span style="font-weight: 400;">Persona et rendu</span></h3>
<p><span style="font-weight: 400;">La persona (caractéristiques démographiques, niveau de langue, personnalité) de l’agent virtuel, ainsi que sa cohérence, est importante dans les deux modes. Alors qu’en mode textuel il faut penser à la facture visuelle du chatbot, en mode vocal, il faut chercher une voix qui représente les caractéristiques désirées tout en étant naturelle, et cela peut restreindre nos options. Essayer de créer un agent vocal informel, par exemple, peut être quasi-impossible, surtout en utilisant le TTS au lieu d’une voix enregistrée (qui a aussi ses limitations).</span></p>
<audio class="wp-audio-shortcode" id="audio-9534-1" preload="none" style="width: 100%;" controls="controls"><source type="audio/wav" src="https://www.nuecho.com/wp-content/uploads/2022/09/voicebot_cool-en.wav?_=1" /><a href="https://www.nuecho.com/wp-content/uploads/2022/09/voicebot_cool-en.wav">https://www.nuecho.com/wp-content/uploads/2022/09/voicebot_cool-en.wav</a></audio>
<p>&nbsp;</p>
<p>&nbsp;</p>
<h3></h3>
<h3><span style="font-weight: 400;">Support de multiples canaux</span></h3>
<p><span style="font-weight: 400;">Finalement, même si nos cas d’utilisation sont indépendants du canal, notre persona très simple et notre agent très verbal, il est clair qu’il faut minimalement pouvoir jouer des messages différents selon le canal, ne serait-ce que pour inclure du SSML dans les messages audio. Malheureusement, certains engins de dialogue supportent difficilement plusieurs canaux et cela peut faire exploser la complexité d’implémenter un agent commun.</span></p>
<p><img decoding="async" class="wp-image-9523 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/ssml-fr.png" alt="" width="358" height="364" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/ssml-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/ssml-fr-295x300.png 295w" sizes="(max-width: 358px) 100vw, 358px" /></p>
<h2></h2>
<h2><span style="font-weight: 400;">Interprétation de l’intrant</span></h2>
<p><span style="font-weight: 400;">“Qu’en est-il de l’autre sens? L’utilisateur n’enverra pas d’images ou de carrousels au chatbot, sûrement traiter l’intrant ne peut pas être si différent”. Je répondrai à ceci par une dramatisation. Suivons Bob, qui essaie d’exprimer son besoin à un agent vocal:</span></p>
<p><img decoding="async" class="aligncenter wp-image-9525 size-full" src="https://www.nuecho.com/wp-content/uploads/2022/09/bob-fr.png" alt="" width="677" height="973" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/bob-fr.png 677w, https://www.nuecho.com/wp-content/uploads/2022/09/bob-fr-480x690.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 677px, 100vw" /></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Bien entendu, Bob et sa malchance légendaire n’existent pas, mais les cas présentés sont tirés de la réalité. Même si certains modèles de STT peuvent maintenant ignorer les “euh”, les bruits et les voix secondaires, la transcription comportera toujours son lot d’erreurs.</span></p>
<h3></h3>
<h3></h3>
<h3><span style="font-weight: 400;">Incertitude</span></h3>
<p><span style="font-weight: 400;">Il existe des moyens de diminuer ces erreurs ou leurs impacts, que ce soit via la configuration de l’engin, des transformations systématiques sur la transcription, ou l’adaptation du modèle TALN aux phrases reçues. Il reste malgré tout une incertitude supplémentaire liée au STT dont il faut tenir compte dans le développement d’une application vocale.</span></p>
<h4></h4>
<p>&nbsp;</p>
<h4><span style="font-weight: 400;">Stratégies de gestion de l’incertitude</span></h4>
<p><span style="font-weight: 400;">Pour augmenter notre confiance en l’interprétation de l’intrant, on utilisera dans le dialogue d’un agent vocal plus de stratégies de gestion de l’incertitude que dans un agent textuel. On pense par exemple à:</span></p>
<ul>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Ajouter une étape de confirmation explicite ou implicite d’une intention ou entité</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Ajouter une étape de désambiguïsation de l’intrant pour des intentions trop similaires</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Supporter les changements/corrections</span></li>
</ul>
<p>&nbsp;</p>
<p><img decoding="async" class="wp-image-9527 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/confirm-fr.png" alt="" width="358" height="413" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/confirm-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/confirm-fr-260x300.png 260w" sizes="(max-width: 358px) 100vw, 358px" /></p>
<p>&nbsp;</p>
<h4><span style="font-weight: 400;">Choix des cas d’utilisation</span></h4>
<p><span style="font-weight: 400;">Les adresses, les courriels ou les noms de personnes sont des informations difficiles à transcrire correctement pour de multiples raisons, mais peu problématiques à l’écrit. Si certaines sont critiques pour un cas d’utilisation, il pourrait être très complexe, risqué, ou inadéquat pour l’expérience utilisateur de l’implémenter vocalement.</span></p>
<p><img decoding="async" class="wp-image-9529 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/courriel-fr.png" alt="" width="358" height="380" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/courriel-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/courriel-fr-283x300.png 283w" sizes="(max-width: 358px) 100vw, 358px" /></p>
<p>&nbsp;</p>
<h2><span style="font-weight: 400;">Gestion du temps réel</span></h2>
<p><span style="font-weight: 400;">La dernière grande différence entre les conversations vocales et textuelles est la gestion du temps. Une conversation textuelle est asynchrone: l’intrant est reçu en un bloc, et la réponse qui suit est envoyée en un bloc. L’audio, lui, est transmis en continu, le temps doit donc être géré en conséquence.</span></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">Réponse rapide et expérience utilisateur</span></h3>
<p><span style="font-weight: 400;">En discussion vocale, il est inhabituel de ne pas avoir de réponse en quelques dixièmes de seconde, alors qu’en mode texte, c’est tout à fait normal. Un trop long silence au bout du fil est malaisant, et même s’il est possible de jouer des sons ou de la musique pour les attentes, entre deux interactions régulières, les “&#8230;” sont irremplaçables. Il est donc beaucoup plus critique en mode voix de s’assurer que le système est rapide et d’avertir l’utilisateur en cas d’opération plus longue.</span></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">Interruptions</span></h3>
<p><span style="font-weight: 400;">Parce que l’extrant vocal a une durée, l’utilisateur peut essayer d’interrompre un agent vocal. Supporter les interruptions correctement implique une complexité technique additionnelle, mais aussi quelques impacts sur le dialogue. On voudra par exemple faire l’hypothèse que si l’utilisateur dit “oui” lorsqu’on présente plusieurs options, cela signifie qu’il choisit la première, et supporter ce cas.</span></p>
<p><img decoding="async" class="wp-image-9531 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/oui-fr.png" alt="" width="358" height="375" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/oui-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/oui-fr-286x300.png 286w" sizes="(max-width: 358px) 100vw, 358px" /></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">Le silence de l’utilisateur</span></h3>
<p><span style="font-weight: 400;">Quoiqu’un agent virtuel soit immunisé au malaise des silences, le traitement de ce qu’on appelle communément un </span><i><span style="font-weight: 400;">no-input</span></i><span style="font-weight: 400;"> diffère grandement selon le mode. En voix, quelques secondes de silence signifient généralement que l&rsquo;utilisateur hésite ou que le son de sa voix est trop bas; on jouera donc un message d’aide approprié. </span></p>
<p><span style="font-weight: 400;">En mode texte, il est inutile de harceler l’utilisateur de messages d’erreur car l’absence d’intrant est traité comme toute inaction sur un site web: après un temps déterminé, l’utilisateur sera déconnecté si nécessaire, et la conversation terminée.</span></p>
<p>&nbsp;</p>
<p><img decoding="async" class="wp-image-9533 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/no-input-fr.png" alt="" width="358" height="377" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/no-input-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/no-input-fr-285x300.png 285w" sizes="(max-width: 358px) 100vw, 358px" /></p>
<p>&nbsp;</p>
<h2><span style="font-weight: 400;">Alors, finalement…</span></h2>
<p><span style="font-weight: 400;">Que répond-on alors à la question: “Que peut-on réutiliser d’un agent vocal pour créer un chatbot ou vice-versa?” La réponse est très nuancée et un peu décevante. Passer d’un agent vocal à un chatbot permettra généralement plus de réutilisation car le premier est généralement plus contraignant: peut-être qu’il suffira d’adapter un peu les messages, d’ajouter ou d’enlever quelques chemins de dialogues.</span></p>
<p><span style="font-weight: 400;">Cependant, dans les deux cas, il sera important de prendre un pas de recul et de ré-évaluer nos cas d’utilisation et notre persona: sont-ils appropriés, faisables et réalistes sur ce nouveau canal? Pour ce qui survit à ce questionnement, les règles d’affaires et les flux haut-niveau du dialogue pourront probablement être réutilisés. Le modèle TALN (données textuelles, organisation des intentions et entités) et les messages de l’un pourront servir de base à l’autre, mais seront appelés à changer. </span><span style="font-weight: 400;">En effet, l’approche devra être adaptée aux résultats de tests utilisateurs et collectes de données, afin que l’expérience utilisateur ne souffre pas au profit de la simplicité du développement.</span></p><p>The post <a href="https://www.nuecho.com/fr/du-chatbot-au-voicebot-plus-quun-peu-de-maquillage/">Du chatbot au voicebot: plus qu’un peu de maquillage</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p><p>The post <a href="https://www.nuecho.com/fr/du-chatbot-au-voicebot-plus-quun-peu-de-maquillage/">Du chatbot au voicebot: plus qu’un peu de maquillage</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
