<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AI Virtual Voice Experts with Google Dialogflow CX &#8211; CCAI &#8211; Nu Echo</title>
	<atom:link href="https://www.nuecho.com/fr/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.nuecho.com/fr/</link>
	<description>Nu Echo</description>
	<lastBuildDate>Wed, 14 Dec 2022 19:03:01 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.nuecho.com/wp-content/uploads/2019/11/cropped-favicon-32x32.png</url>
	<title>AI Virtual Voice Experts with Google Dialogflow CX &#8211; CCAI &#8211; Nu Echo</title>
	<link>https://www.nuecho.com/fr/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>L’automatisation des appels n’a pas besoin d&#8217;être risquée, longue et coûteuse.</title>
		<link>https://www.nuecho.com/fr/lautomatisation-des-appels-na-pas-besoin-detre-risquee-longue-et-couteuse/#utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=lautomatisation-des-appels-na-pas-besoin-detre-risquee-longue-et-couteuse</link>
		
		<dc:creator><![CDATA[Pierre Moisan]]></dc:creator>
		<pubDate>Wed, 14 Dec 2022 19:03:01 +0000</pubDate>
				<category><![CDATA[Blogue]]></category>
		<category><![CDATA[Industries]]></category>
		<category><![CDATA[RVI]]></category>
		<category><![CDATA[Agent virtuel Centre de contact]]></category>
		<category><![CDATA[Agent Virtuel comme un service]]></category>
		<category><![CDATA[agent virtuels]]></category>
		<category><![CDATA[Automatisation des Appels]]></category>
		<category><![CDATA[cas d'utilisation agent virtuels]]></category>
		<category><![CDATA[Centre de Contact comme un service]]></category>
		<category><![CDATA[contact center automation]]></category>
		<category><![CDATA[CX]]></category>
		<category><![CDATA[Design conversationnel]]></category>
		<category><![CDATA[IA conversationnelle]]></category>
		<guid isPermaLink="false">https://www.nuecho.com/?p=9580</guid>

					<description><![CDATA[<p>Comme expliqué précédemment dans le billet « Mesdames et messieurs, nous traversons une zone de turbulence. Veuillez patienter pendant que nous essayons de localiser un agent disponible.”, l’automatisation des appels peut aider les centres de contact clients à faire face à différents enjeux tels que la variabilité des volumes d’appels et la pénurie de main d&#8217;œuvre. [&#8230;]</p>
<p>The post <a href="https://www.nuecho.com/fr/lautomatisation-des-appels-na-pas-besoin-detre-risquee-longue-et-couteuse/">L’automatisation des appels n’a pas besoin d’être risquée, longue et coûteuse.</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
<p>The post <a href="https://www.nuecho.com/fr/lautomatisation-des-appels-na-pas-besoin-detre-risquee-longue-et-couteuse/">L’automatisation des appels n’a pas besoin d&rsquo;être risquée, longue et coûteuse.</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Comme expliqué précédemment dans le billet « <a href="https://www.nuecho.com/fr/news-events/mesdames-et-messieurs-nous-traversons-une-zone-de-turbulence-veuillez-patienter-pendant-que-nous-essayons-de-localiser-un-agent-disponible/">Mesdames et messieurs, nous traversons une zone de turbulence. Veuillez patienter pendant que nous essayons de localiser un agent disponible.</a></span><span style="font-weight: 400;">”, l’automatisation des appels peut aider les centres de contact clients à faire face à différents enjeux tels que la variabilité des volumes d’appels et la pénurie de main d&rsquo;œuvre.</span></p>
<p><span style="font-weight: 400;">Au cours des dernières années, les solutions d’agents virtuels ont bénéficié d’avancées technologiques majeures dans le domaine du Traitement Automatique du Langage Naturel (TALN) et de l’Intelligence Artificielle</span> <span style="font-weight: 400;">(IA).</span></p>
<p><span style="font-weight: 400;">Cependant, la complexité et la quantité d&rsquo;efforts requis pour tirer partie des plateformes conversationnelles basées sur l’IA, tels que Lex d’Amazon ou Dialogflow CX de Google, sont des freins qui découragent beaucoup d’entreprises de considérer les agents virtuels comme un investissement potentiellement rentable.</span></p>
<p><span style="font-weight: 400;">En mutualisant les volumes d’appels de plusieurs clients, les fournisseurs de solution d’agents virtuels gérée sont en mesure d‘offrir des agents virtuels à la demande, dans des délais beaucoup plus courts et à un coût bien plus bas que si chaque client devait implémenter  sa propre plateforme conversationnelle.</span></p>
<p><span style="font-weight: 400;">De nombreuses entreprises ont développé leurs propres critères de sélection de main-d&rsquo;œuvre externalisée, mais ces critères ne sont pas entièrement applicables au choix d’une solution d’agents virtuels.</span></p>
<p><span style="font-weight: 400;">Quand il s’agit de <strong>sélectionner un fournisseur de solution d’agents virtuels gérée, le choix des entreprises devrait s&rsquo;appuyer principalement sur ces 4 critères</strong>:</span></p>
<ul>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">L&rsquo;intégration et la sécurité </span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">L’expérience du prestataire avec le canal voix et en téléphonie</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">L’expérience du prestataire en conception d’interface conversationnelle</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">L’amélioration continue de la solution</span></li>
</ul>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Explorons en détails chacun de ces critères afin d&rsquo;établir ce qu&rsquo;un client devrait être en droit d’attendre de la part du fournisseur.</span></p>
<p>&nbsp;</p>
<h2><strong>L&rsquo;intégration et la sécurité</strong></h2>
<p><span style="font-weight: 400;">Du point de vue de l’intégration, une solution d’agents virtuels gérée est similaire à une externalisation des appels ; c’est-à-dire qu’il faut mettre en place un moyen de transférer les appels à un autre centre de contact tout en garantissant l’accès aux systèmes requis selon les cas d’utilisations choisis.</span></p>
<p><span style="font-weight: 400;">Le diagramme suivant illustre l&rsquo;architecture à haut niveau d’une solution d’agents virtuels gérée:</span></p>
<p><img decoding="async" class="alignnone wp-image-9579 size-full" src="https://www.nuecho.com/wp-content/uploads/2022/12/Agent-Virtuels-comme-un-Service-VAaaS-Waterfield-NuEcho-Architecture-FR.png" alt="" width="1228" height="760" srcset="https://www.nuecho.com/wp-content/uploads/2022/12/Agent-Virtuels-comme-un-Service-VAaaS-Waterfield-NuEcho-Architecture-FR.png 1228w, https://www.nuecho.com/wp-content/uploads/2022/12/Agent-Virtuels-comme-un-Service-VAaaS-Waterfield-NuEcho-Architecture-FR-980x607.png 980w, https://www.nuecho.com/wp-content/uploads/2022/12/Agent-Virtuels-comme-un-Service-VAaaS-Waterfield-NuEcho-Architecture-FR-480x297.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) and (max-width: 980px) 980px, (min-width: 981px) 1228px, 100vw" /></p>
<p><span style="font-weight: 400;">Il est à espérer que le fournisseur choisi sera capable de s’intégrer à vos systèmes existants sans vous imposer d’en mettre certains, tels que votre solution de centre de contacts, à jour. Il vous incombe de vérifier les implications liées à l’ouverture de certains points d&rsquo;accès à un fournisseur.</span></p>
<p><span style="font-weight: 400;">Dans la mesure où vos données clients ainsi que leur interactions vocales seront partagées avec ce fournisseur, il sera primordial de discuter des aspects de sécurité de l’intégration. Vous devrez vous assurer que le fournisseur est capable de faire transiter et d’héberger vos données clients à l’intérieur des zones géographiques que vous desservez. Par exemple, il est probable que vous ne souhaitiez pas que vos appels transitent à travers des infrastructures basées aux États-Unis si vous faites affaires au Canada.  De plus, il sera nécessaire d&rsquo;évaluer le niveau de sécurité du fournisseur. Des audits de sécurité et des certifications reconnues (ex. SOC 2, ISO 27001) peuvent faciliter cette évaluation et confirmer que le niveau de sécurité du fournisseur répond à vos exigences.</span></p>
<p>&nbsp;</p>
<h2><b>L’expérience du prestataire avec le canal voix et en téléphonie</b></h2>
<p><span style="font-weight: 400;">Fournir une expérience conversationnelle de premier rang sur le canal téléphonique requiert plus que l’ajout d’outils de transcription et de synthèse de la parole à un chatbot. Les conversations vocales se font en temps réel, de manière synchrone. Il y a plusieurs facteurs en jeu: garder le temps de réponse à l&rsquo;échelle des milli-seconds pour réduire les silences et éviter l&rsquo;inconfort, détecter précisément quand l’appelant arrête de parler ou interrompt l’agent virtuel, s’adapter à un signal audio de faible qualité ou au bruit, permettre une reconnaissance de la parole précise même avec des accents forts, des appelants hésitants ou qui changent d’avis, et enfin être capable de générer des réponses qui semblent naturelles.</span></p>
<p><span style="font-weight: 400;">Lors du choix d&rsquo;un fournisseur de solution d’agents virtuels gérée, vous devrez vous assurer qu’il dispose d’une expérience significative dans la gestion des enjeux liés aux communications téléphoniques.</span></p>
<p>&nbsp;</p>
<h2><b>L’expérience du prestataire en conception d’interface conversationnelle</b></h2>
<p><span style="font-weight: 400;">Comme mentionné </span><a href="https://www.nuecho.com/fr/news-events/mesdames-et-messieurs-nous-traversons-une-zone-de-turbulence-veuillez-patienter-pendant-que-nous-essayons-de-localiser-un-agent-disponible/"><span style="font-weight: 400;">précédemment </span></a><span style="font-weight: 400;">à propos des faibles taux de satisfaction pour certaines applications de réponses vocales interactives (RVI), une approche « taille unique” n’offre généralement pas une bonne expérience client. La personnalisation devrait être partie intégrante de votre stratégie de conception des dialogues. Par exemple, l&rsquo;intégration de vos agents virtuels avec votre système de gestion de la relation clients peut permettre de s’appuyer sur vos données clients pour mieux contextualiser leurs besoins et comprendre leurs raisons d’appels. Lors des échanges avec le fournisseur, il sera important de vous assurer qu’il ne vous propose pas une solution à l’emporte-pièce ne permettant aucune personnalisation de l’expérience conversationnelle.</span></p>
<p><span style="font-weight: 400;">L’attention portée à l’expérience client devrait viser à réduire les frictions avec d’autres interactions que le client a eu avec vous. Malheureusement, les RVI mal conçues peuvent être trop contraignantes et imposer une structure conversationnelle trop rigide que les clients n’apprécient pas. Sans vouloir faire croire à vos clients qu’ils conversent avec un agent humain, votre objectif devrait être de reproduire autant que possible l’expérience qu’ils auraient avec un agent humain. Le propre des conversations d&rsquo;humain à humain est de permettre aux gens de s’exprimer naturellement tout en identifiant les informations pertinentes au gré de la conversation.</span></p>
<p><span style="font-weight: 400;">Vous devrez aussi prendre en compte les restrictions liées au canal téléphonique lors de la conception des dialogues. Bien que de disposer d’une solution omnicanal est tout à fait souhaitable, les entreprises doivent comprendre les différences inhérentes à chaque canal. Prenons, par exemple, le cas de la prise de rendez-vous par le biais d’un agent virtuel. Si un client veut prendre un rendez-vous un jour où il y a beaucoup de disponibilités, vous pourriez présenter une liste visuelle de tous les créneaux horaires disponibles dans une interface de chat afin que le client puisse facilement en sélectionner un. Cependant, au téléphone, cette stratégie est vouée à l’échec car la liste des disponibilités est tout simplement trop longue à énumérer de vive voix. Une interface utilisateur vocale vient avec son lot de contraintes spécifiques que vous devrez garder à l’esprit lors de la phase de conception. Méfiez-vous des fournisseurs qui vous assurent que leurs agents virtuels peuvent fonctionner sur n’importe quel canal.</span></p>
<p>&nbsp;</p>
<h2><b>L’amélioration continue de la solution</b></h2>
<p><span style="font-weight: 400;">Les gens sont imprévisibles. Il est important d’anticiper que certaines personnes ne vont pas interagir avec l’agent virtuel de la manière prévue. De plus, les besoins de vos clients évoluent avec le temps. Tout comme les agents humains, les agents virtuels doivent être supervisés et évalués d’une manière ou d’une autre tout en recevant l’entraînement nécessaire.</span></p>
<p><span style="font-weight: 400;">Dès lors, il est vital de comprendre qu’une solution d’agent virtuel ne se limite pas à son implémentation et à son lancement. La solution d’agent virtuel requiert de la surveillance, du support, de la maintenance et de l’optimisation pour s&rsquo;adapter à vos clients. Veillez à ce que votre fournisseur s’attache à améliorer constamment la solution.</span></p>
<p><span style="font-weight: 400;">Questionnez votre fournisseur sur la façon dont il propose de tirer partie de vos données d&rsquo;utilisation. Comme les gens s’expriment de manière naturelle, vous pourriez en profiter pour identifier comment mieux les servir.  Cela peut vous aider également à identifier d’autres cas d’utilisation qui pourraient être implémentés.</span></p>
<p>&nbsp;</p>
<h2><b>Les avantages d’une solution gérée</b></h2>
<p><span style="font-weight: 400;">S’appuyer sur l’expertise d’un partenaire-fournisseur d’agents virtuels a plusieurs avantages.</span></p>
<p><span style="font-weight: 400;">L’avantage principal réside dans la réduction du temps nécessaire pour arriver à générer de la valeur avec la solution. Une fournisseur de solution gérée sera en mesure de vous offrir des connecteurs pour vos systèmes, aura conçu des agents conversationnel ou des dialogues similaires, aura optimisé le traitement de la parole… Cela peut réduire le temps de mise en place d’une projet d’agent virtuel de quelques mois à quelques semaines.</span></p>
<p><span style="font-weight: 400;">Définir, concevoir, implémenter et assurer la maintenance d’agents virtuels nécessite une équipe multidisciplinaire et une bonne compréhension des dernières technologies d’IA.</span></p>
<p><span style="font-weight: 400;">Cette expertise peut lourdement grever le coût total de la solution ainsi que les investissements requis. Une solution d’agents virtuels complètement gérée par un fournisseur permet de réduire des investissements et de mieux prédire les coûts.</span></p>
<p><span style="font-weight: 400;">Le déploiement d&rsquo;un assistant virtuel vocal qui répondra aux appels des clients peut être risqué pour les entreprises. Selon une </span><strong><a href="https://info.rasa.com/conversational-ai-for-customer-experience-survey-report">enquête Rasa</a></strong><span style="font-weight: 400;">, 41% des personnes interrogées ont déclaré qu&rsquo;une expérience limitée dans la création d&rsquo;assistants virtuels était un obstacle à l&rsquo;adoption de l&rsquo;IA conversationnelle et seulement 18% des personnes interrogées utilisant des assistants vocaux sont en production avec elle. Un fournisseur d&rsquo;agents virtuels entièrement gérés peut tirer parti de son expérience pour assurer le déploiement réussi des solutions en production.</span></p>
<p>&nbsp;</p>
<h2><b>Pour résumer</b></h2>
<p><span style="font-weight: 400;">L&rsquo;automatisation des appels via une solution d&rsquo;agent virtuel entièrement gérée peut aider les centres de contact à servir leurs clients pour des tâches simples et répétitives afin de permettre à leurs agents humains de se concentrer sur les appels à valeur ajoutée. Cela implique un partenariat avec un fournisseur et les entreprises doivent s&rsquo;assurer que les critères clés seront remplis par leur fournisseur.</span></p>
<p><span style="font-weight: 400;">Nu Echo a plus de 20 ans d&rsquo;expérience dans la création d&rsquo;expériences conversationnelles qui améliorent l&rsquo;efficacité opérationnelle avec une expérience client exceptionnelle. Si vous êtes intéressé par une solution d&rsquo;agent virtuel géré, </span><strong><a href="https://www.nuecho.com/fr/contact/">contactez-nous dès aujourd&rsquo;hui</a>.</strong></p>
<p>&nbsp;</p><p>The post <a href="https://www.nuecho.com/fr/lautomatisation-des-appels-na-pas-besoin-detre-risquee-longue-et-couteuse/">L’automatisation des appels n’a pas besoin d’être risquée, longue et coûteuse.</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p><p>The post <a href="https://www.nuecho.com/fr/lautomatisation-des-appels-na-pas-besoin-detre-risquee-longue-et-couteuse/">L’automatisation des appels n’a pas besoin d&rsquo;être risquée, longue et coûteuse.</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Mesdames et messieurs, nous traversons une zone de turbulence. Veuillez patienter pendant que nous essayons de localiser un agent disponible.</title>
		<link>https://www.nuecho.com/fr/mesdames-et-messieurs-nous-traversons-une-zone-de-turbulence-veuillez-patienter-pendant-que-nous-essayons-de-localiser-un-agent-disponible/#utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=mesdames-et-messieurs-nous-traversons-une-zone-de-turbulence-veuillez-patienter-pendant-que-nous-essayons-de-localiser-un-agent-disponible</link>
		
		<dc:creator><![CDATA[Pierre Moisan]]></dc:creator>
		<pubDate>Tue, 01 Nov 2022 16:51:56 +0000</pubDate>
				<category><![CDATA[Blogue]]></category>
		<category><![CDATA[Industries]]></category>
		<category><![CDATA[RVI]]></category>
		<category><![CDATA[Agent virtuel Centre de contact]]></category>
		<category><![CDATA[agent virtuels]]></category>
		<category><![CDATA[cas d'utilisation agent virtuels]]></category>
		<category><![CDATA[contact center automation]]></category>
		<category><![CDATA[CX]]></category>
		<category><![CDATA[Design conversationnel]]></category>
		<category><![CDATA[IA conversationnelle]]></category>
		<guid isPermaLink="false">https://www.nuecho.com/?p=9554</guid>

					<description><![CDATA[<p>Vous faites face de plus en plus régulièrement à des temps d&#8217;attente de plus d&#8217;une heure avant de pouvoir parler à un agent? Cela s&#8217;est-il aggravé avec la pandémie ? Que se passe-t-il avec les centres d&#8217;appels ? Imaginez que vous avez réservé des billets pour un événement à venir qui vous passionne vraiment. Quelques [&#8230;]</p>
<p>The post <a href="https://www.nuecho.com/fr/mesdames-et-messieurs-nous-traversons-une-zone-de-turbulence-veuillez-patienter-pendant-que-nous-essayons-de-localiser-un-agent-disponible/">Mesdames et messieurs, nous traversons une zone de turbulence. Veuillez patienter pendant que nous essayons de localiser un agent disponible.</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
<p>The post <a href="https://www.nuecho.com/fr/mesdames-et-messieurs-nous-traversons-une-zone-de-turbulence-veuillez-patienter-pendant-que-nous-essayons-de-localiser-un-agent-disponible/">Mesdames et messieurs, nous traversons une zone de turbulence. Veuillez patienter pendant que nous essayons de localiser un agent disponible.</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><i><span style="font-weight: 400;">Vous faites face de plus en plus régulièrement à des temps d&rsquo;attente de plus d&rsquo;une heure avant de pouvoir parler à un agent? Cela s&rsquo;est-il aggravé avec la pandémie ? Que se passe-t-il avec les centres d&rsquo;appels ?</span></i></p>
<p><span style="font-weight: 400;">Imaginez que vous avez réservé des billets pour un événement à venir qui vous passionne vraiment. Quelques semaines plus tard, vous recevez un e-mail vous informant que votre événement a été annulé. Vous essayez de comprendre vos options : puis-je obtenir un remboursement, l&rsquo;événement est-il reporté, quelle place aurai-je si je reporte… Vous naviguez sur le site Web et ne trouvez pas de réponses à vos questions. Vous décidez donc d&rsquo;appeler le service client de l&rsquo;événement et vous devez attendre près d&rsquo;une heure avant de pouvoir enfin parler à un agent.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Cela vous semble familier? Ces mauvaises expériences sont principalement dues à 4 grandes tendances qui affectent actuellement les centres de contact.</span></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">⚠️Volumes élevés sur le canal téléphonique</span></h3>
<p><span style="font-weight: 400;">Selon </span><a href="https://cdncom.cfigroup.com/wp-content/uploads/CFI-contact-center-satisfaction-2020.pdf"><span style="font-weight: 400;">CFI group</span></a><span style="font-weight: 400;">, 76% des personnes souhaitant contacter un service client choisissent de téléphoner.</span></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">⚠️Volume d’appels variables</span></h3>
<p><span style="font-weight: 400;">Selon </span><a href="https://www.talkdesk.com/blog/contact-center-holiday-season/"><span style="font-weight: 400;">Talkdesk</span></a><span style="font-weight: 400;">, 50 % des professionnels de l&rsquo;expérience client du commerce de détail déclarent que le principal défi auquel ils sont confrontés est la grande variabilité de la quantité d&rsquo;assistance client nécessaire pendant les vacances, les pics saisonniers, les baisses hors saison et autres. Les gens s&rsquo;adaptent également à de nouvelles situations telles que le travail à domicile, les interactions virtuelles et l&rsquo;évolution des règles de voyage.</span></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">⚠️ Une complexité d’appels croissante</span></h3>
<p><span style="font-weight: 400;">Selon le </span><a href="https://hbr.org/2020/04/supporting-customer-service-through-the-coronavirus-crisis"><span style="font-weight: 400;">Harvard Business Review</span></a><span style="font-weight: 400;"> qui a étudié l&rsquo;effet de la pandémie de COVID sur le service client, le pourcentage d&rsquo;appels classés comme « difficiles » a plus que doublé, les temps d&rsquo;attente ont augmenté de 34 % et les escalades de 68 %.</span></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">⚠️ Une augmentation de la complexité et des coûts de main d’oeuvre dans les centres de contact</span></h3>
<p><span style="font-weight: 400;">Selon </span><a href="https://www.cgsinc.com/en/resources/infographic-ongoing-impact-covid-19-contact-center-support-services"><span style="font-weight: 400;">CGS</span></a><span style="font-weight: 400;">, 37 % des entreprises ne sont pas confiantes ou peu confiantes dans leur capacité à maintenir les niveaux de service et à prévenir les effets négatifs sur les niveaux de service de vagues supplémentaires de COVID.</span></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">🌀Un cocktail explosif pour les centres de contact</span></h3>
<p><span style="font-weight: 400;">La combinaison de ces tendances exerce une pression énorme sur les centres de contact. La gestion de la main-d&rsquo;œuvre d&rsquo;un centre de contact est devenue de plus en plus difficile avec des volumes d&rsquo;appels encore plus imprévisibles combinés à des difficultés d&#8217;embauche et de dotation en personnel.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Ne pas pouvoir parler avec une entreprise peut entraîner une baisse de la satisfaction et de l&rsquo;engagement des clients, ce qui peut causer une perte de revenus et une baisse de la valeur de la marque.</span></p>
<p><span style="font-weight: 400;">Comment les centres de contact peuvent-ils suivre le rythme? Espérons que les entreprises pourront utiliser différentes stratégies pour atténuer l&rsquo;impact de ces défis. Afin de choisir les bonnes stratégies, il est important de considérer la complexité ainsi que le volume de chaque cas d&rsquo;utilisation ou catégorie d&rsquo;appels. L&rsquo;automatisation des appels devient un élément clé pour les centres de contact afin de permettre aux agents virtuels de gérer les appels simples et transactionnels et de laisser les appels plus complexes et à valeur ajoutée aux agents humains.</span></p>
<p><span style="font-weight: 400;">Découvrez comment les centres de contact peuvent s&rsquo;associer à des fournisseurs de solutions pour automatiser les appels avec des investissements réduits, des coûts plus prévisibles et un délai de rentabilité réduit dans un article qui sera publié prochainement  </span><i><span style="font-weight: 400;">L’automatisation des appels n’a pas besoin d&rsquo;être risquée, longue et coûteuse.</span></i></p><p>The post <a href="https://www.nuecho.com/fr/mesdames-et-messieurs-nous-traversons-une-zone-de-turbulence-veuillez-patienter-pendant-que-nous-essayons-de-localiser-un-agent-disponible/">Mesdames et messieurs, nous traversons une zone de turbulence. Veuillez patienter pendant que nous essayons de localiser un agent disponible.</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p><p>The post <a href="https://www.nuecho.com/fr/mesdames-et-messieurs-nous-traversons-une-zone-de-turbulence-veuillez-patienter-pendant-que-nous-essayons-de-localiser-un-agent-disponible/">Mesdames et messieurs, nous traversons une zone de turbulence. Veuillez patienter pendant que nous essayons de localiser un agent disponible.</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Du chatbot au voicebot: plus qu’un peu de maquillage</title>
		<link>https://www.nuecho.com/fr/du-chatbot-au-voicebot-plus-quun-peu-de-maquillage/#utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=du-chatbot-au-voicebot-plus-quun-peu-de-maquillage</link>
		
		<dc:creator><![CDATA[Karine Dery]]></dc:creator>
		<pubDate>Thu, 15 Sep 2022 15:12:12 +0000</pubDate>
				<category><![CDATA[Blogue]]></category>
		<category><![CDATA[Dialogflow]]></category>
		<category><![CDATA[Agent virtuel Centre de contact]]></category>
		<category><![CDATA[agent virtuels]]></category>
		<category><![CDATA[cas d'utilisation agent virtuels]]></category>
		<category><![CDATA[Chatbot]]></category>
		<category><![CDATA[contact center automation]]></category>
		<category><![CDATA[Design conversationnel]]></category>
		<category><![CDATA[DialogFlow]]></category>
		<category><![CDATA[IA conversationnelle]]></category>
		<category><![CDATA[Modèle NLU]]></category>
		<category><![CDATA[Modèle TALN]]></category>
		<category><![CDATA[Voicebot]]></category>
		<category><![CDATA[voicebot persona]]></category>
		<guid isPermaLink="false">https://www.nuecho.com/?p=9534</guid>

					<description><![CDATA[<p>Dans notre métier, on entend souvent “Après avoir fait l’assistant vocal, on pourra utiliser le dialogue pour ajouter un chatbot sur notre site!!” ou encore “Maintenant qu’on a notre chatbot, faire un voicebot sera si facile”. À première vue, il suffit d’ajouter ou d’enlever une couche de reconnaissance de la parole (speech-to-text, STT) et de [&#8230;]</p>
<p>The post <a href="https://www.nuecho.com/fr/du-chatbot-au-voicebot-plus-quun-peu-de-maquillage/">Du chatbot au voicebot: plus qu’un peu de maquillage</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
<p>The post <a href="https://www.nuecho.com/fr/du-chatbot-au-voicebot-plus-quun-peu-de-maquillage/">Du chatbot au voicebot: plus qu’un peu de maquillage</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Dans notre métier, on entend souvent “Après avoir fait l’assistant vocal, on pourra utiliser le dialogue pour ajouter un chatbot sur notre site!!” ou encore “Maintenant qu’on a notre chatbot, faire un voicebot sera si facile”. À première vue, il suffit d’ajouter ou d’enlever une couche de reconnaissance de la parole (</span><i><span style="font-weight: 400;">speech-to-text</span></i><span style="font-weight: 400;">, STT) et de synthèse de la parole (</span><i><span style="font-weight: 400;">text-to-speech</span></i><span style="font-weight: 400;">, TTS) à l’un pour obtenir l’autre. Pourtant, l’expérience nous a appris qu’il faudrait un coup de baguette magique pour que ce soit aussi simple, et à travers ce post, j’essaierai de le démontrer à l’aide de quelques exemples.</span></p>
<h2></h2>
<p>&nbsp;</p>
<h2><span style="font-weight: 400;">Génération de l’extrant</span></h2>
<h3><span style="font-weight: 400;">Présentation d’informations complexes</span></h3>
<p><span style="font-weight: 400;">Pour un chatbot, il est possible de complémenter le texte par des images, des hyperliens, des carrousels, etc. Certains cas d’utilisation, comme l’aide à la navigation, ou des suggestions d’achats, sont impensables sans ces outils.</span></p>
<p><span style="font-weight: 400;">Dans d’autres cas, plusieurs interactions vocales pourraient être nécessaires pour obtenir le même résultat qu’un seul extrant visuel complexe. Voici, par exemple, ma meilleure tentative de reproduction extrant pour extrant d’un bot de prise de rendez-vous:</span></p>
<p><span style="font-weight: 400;"><img decoding="async" class="wp-image-9517 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/rdv-c-fr.png" alt="" width="358" height="522" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/rdv-c-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/rdv-c-fr-206x300.png 206w" sizes="(max-width: 358px) 100vw, 358px" /></span><span style="font-weight: 400;"><img decoding="async" class="wp-image-9519 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/rdv-v-fr.png" alt="" width="358" height="368" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/rdv-v-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/rdv-v-fr-292x300.png 292w" sizes="(max-width: 358px) 100vw, 358px" /></span></p>
<h3></h3>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">Trac</span><span style="font-weight: 400;">es des interactions précédentes</span></h3>
<p><span style="font-weight: 400;">Que fait un chatbot si l’utilisateur est inattentif, a mauvaise mémoire, ou a oublié de mettre ses lunettes? Rien! L’extrant reste là pour que l’utilisateur le relise comme bon lui semble, ce qui rend certains cas nécessaires à l’oral très inutiles à supporter à l’écrit: </span></p>
<p><span style="font-weight: 400;"><img decoding="async" class="wp-image-9521 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/repeter-fr.png" alt="" width="358" height="440" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/repeter-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/repeter-fr-244x300.png 244w" sizes="(max-width: 358px) 100vw, 358px" /></span></p>
<h3></h3>
<h3></h3>
<h3><span style="font-weight: 400;">Persona et rendu</span></h3>
<p><span style="font-weight: 400;">La persona (caractéristiques démographiques, niveau de langue, personnalité) de l’agent virtuel, ainsi que sa cohérence, est importante dans les deux modes. Alors qu’en mode textuel il faut penser à la facture visuelle du chatbot, en mode vocal, il faut chercher une voix qui représente les caractéristiques désirées tout en étant naturelle, et cela peut restreindre nos options. Essayer de créer un agent vocal informel, par exemple, peut être quasi-impossible, surtout en utilisant le TTS au lieu d’une voix enregistrée (qui a aussi ses limitations).</span></p>
<audio class="wp-audio-shortcode" id="audio-9534-1" preload="none" style="width: 100%;" controls="controls"><source type="audio/wav" src="https://www.nuecho.com/wp-content/uploads/2022/09/voicebot_cool-en.wav?_=1" /><a href="https://www.nuecho.com/wp-content/uploads/2022/09/voicebot_cool-en.wav">https://www.nuecho.com/wp-content/uploads/2022/09/voicebot_cool-en.wav</a></audio>
<p>&nbsp;</p>
<p>&nbsp;</p>
<h3></h3>
<h3><span style="font-weight: 400;">Support de multiples canaux</span></h3>
<p><span style="font-weight: 400;">Finalement, même si nos cas d’utilisation sont indépendants du canal, notre persona très simple et notre agent très verbal, il est clair qu’il faut minimalement pouvoir jouer des messages différents selon le canal, ne serait-ce que pour inclure du SSML dans les messages audio. Malheureusement, certains engins de dialogue supportent difficilement plusieurs canaux et cela peut faire exploser la complexité d’implémenter un agent commun.</span></p>
<p><img decoding="async" class="wp-image-9523 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/ssml-fr.png" alt="" width="358" height="364" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/ssml-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/ssml-fr-295x300.png 295w" sizes="(max-width: 358px) 100vw, 358px" /></p>
<h2></h2>
<h2><span style="font-weight: 400;">Interprétation de l’intrant</span></h2>
<p><span style="font-weight: 400;">“Qu’en est-il de l’autre sens? L’utilisateur n’enverra pas d’images ou de carrousels au chatbot, sûrement traiter l’intrant ne peut pas être si différent”. Je répondrai à ceci par une dramatisation. Suivons Bob, qui essaie d’exprimer son besoin à un agent vocal:</span></p>
<p><img decoding="async" class="aligncenter wp-image-9525 size-full" src="https://www.nuecho.com/wp-content/uploads/2022/09/bob-fr.png" alt="" width="677" height="973" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/bob-fr.png 677w, https://www.nuecho.com/wp-content/uploads/2022/09/bob-fr-480x690.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 677px, 100vw" /></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Bien entendu, Bob et sa malchance légendaire n’existent pas, mais les cas présentés sont tirés de la réalité. Même si certains modèles de STT peuvent maintenant ignorer les “euh”, les bruits et les voix secondaires, la transcription comportera toujours son lot d’erreurs.</span></p>
<h3></h3>
<h3></h3>
<h3><span style="font-weight: 400;">Incertitude</span></h3>
<p><span style="font-weight: 400;">Il existe des moyens de diminuer ces erreurs ou leurs impacts, que ce soit via la configuration de l’engin, des transformations systématiques sur la transcription, ou l’adaptation du modèle TALN aux phrases reçues. Il reste malgré tout une incertitude supplémentaire liée au STT dont il faut tenir compte dans le développement d’une application vocale.</span></p>
<h4></h4>
<p>&nbsp;</p>
<h4><span style="font-weight: 400;">Stratégies de gestion de l’incertitude</span></h4>
<p><span style="font-weight: 400;">Pour augmenter notre confiance en l’interprétation de l’intrant, on utilisera dans le dialogue d’un agent vocal plus de stratégies de gestion de l’incertitude que dans un agent textuel. On pense par exemple à:</span></p>
<ul>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Ajouter une étape de confirmation explicite ou implicite d’une intention ou entité</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Ajouter une étape de désambiguïsation de l’intrant pour des intentions trop similaires</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Supporter les changements/corrections</span></li>
</ul>
<p>&nbsp;</p>
<p><img decoding="async" class="wp-image-9527 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/confirm-fr.png" alt="" width="358" height="413" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/confirm-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/confirm-fr-260x300.png 260w" sizes="(max-width: 358px) 100vw, 358px" /></p>
<p>&nbsp;</p>
<h4><span style="font-weight: 400;">Choix des cas d’utilisation</span></h4>
<p><span style="font-weight: 400;">Les adresses, les courriels ou les noms de personnes sont des informations difficiles à transcrire correctement pour de multiples raisons, mais peu problématiques à l’écrit. Si certaines sont critiques pour un cas d’utilisation, il pourrait être très complexe, risqué, ou inadéquat pour l’expérience utilisateur de l’implémenter vocalement.</span></p>
<p><img decoding="async" class="wp-image-9529 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/courriel-fr.png" alt="" width="358" height="380" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/courriel-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/courriel-fr-283x300.png 283w" sizes="(max-width: 358px) 100vw, 358px" /></p>
<p>&nbsp;</p>
<h2><span style="font-weight: 400;">Gestion du temps réel</span></h2>
<p><span style="font-weight: 400;">La dernière grande différence entre les conversations vocales et textuelles est la gestion du temps. Une conversation textuelle est asynchrone: l’intrant est reçu en un bloc, et la réponse qui suit est envoyée en un bloc. L’audio, lui, est transmis en continu, le temps doit donc être géré en conséquence.</span></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">Réponse rapide et expérience utilisateur</span></h3>
<p><span style="font-weight: 400;">En discussion vocale, il est inhabituel de ne pas avoir de réponse en quelques dixièmes de seconde, alors qu’en mode texte, c’est tout à fait normal. Un trop long silence au bout du fil est malaisant, et même s’il est possible de jouer des sons ou de la musique pour les attentes, entre deux interactions régulières, les “&#8230;” sont irremplaçables. Il est donc beaucoup plus critique en mode voix de s’assurer que le système est rapide et d’avertir l’utilisateur en cas d’opération plus longue.</span></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">Interruptions</span></h3>
<p><span style="font-weight: 400;">Parce que l’extrant vocal a une durée, l’utilisateur peut essayer d’interrompre un agent vocal. Supporter les interruptions correctement implique une complexité technique additionnelle, mais aussi quelques impacts sur le dialogue. On voudra par exemple faire l’hypothèse que si l’utilisateur dit “oui” lorsqu’on présente plusieurs options, cela signifie qu’il choisit la première, et supporter ce cas.</span></p>
<p><img decoding="async" class="wp-image-9531 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/oui-fr.png" alt="" width="358" height="375" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/oui-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/oui-fr-286x300.png 286w" sizes="(max-width: 358px) 100vw, 358px" /></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">Le silence de l’utilisateur</span></h3>
<p><span style="font-weight: 400;">Quoiqu’un agent virtuel soit immunisé au malaise des silences, le traitement de ce qu’on appelle communément un </span><i><span style="font-weight: 400;">no-input</span></i><span style="font-weight: 400;"> diffère grandement selon le mode. En voix, quelques secondes de silence signifient généralement que l&rsquo;utilisateur hésite ou que le son de sa voix est trop bas; on jouera donc un message d’aide approprié. </span></p>
<p><span style="font-weight: 400;">En mode texte, il est inutile de harceler l’utilisateur de messages d’erreur car l’absence d’intrant est traité comme toute inaction sur un site web: après un temps déterminé, l’utilisateur sera déconnecté si nécessaire, et la conversation terminée.</span></p>
<p>&nbsp;</p>
<p><img decoding="async" class="wp-image-9533 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/09/no-input-fr.png" alt="" width="358" height="377" srcset="https://www.nuecho.com/wp-content/uploads/2022/09/no-input-fr.png 358w, https://www.nuecho.com/wp-content/uploads/2022/09/no-input-fr-285x300.png 285w" sizes="(max-width: 358px) 100vw, 358px" /></p>
<p>&nbsp;</p>
<h2><span style="font-weight: 400;">Alors, finalement…</span></h2>
<p><span style="font-weight: 400;">Que répond-on alors à la question: “Que peut-on réutiliser d’un agent vocal pour créer un chatbot ou vice-versa?” La réponse est très nuancée et un peu décevante. Passer d’un agent vocal à un chatbot permettra généralement plus de réutilisation car le premier est généralement plus contraignant: peut-être qu’il suffira d’adapter un peu les messages, d’ajouter ou d’enlever quelques chemins de dialogues.</span></p>
<p><span style="font-weight: 400;">Cependant, dans les deux cas, il sera important de prendre un pas de recul et de ré-évaluer nos cas d’utilisation et notre persona: sont-ils appropriés, faisables et réalistes sur ce nouveau canal? Pour ce qui survit à ce questionnement, les règles d’affaires et les flux haut-niveau du dialogue pourront probablement être réutilisés. Le modèle TALN (données textuelles, organisation des intentions et entités) et les messages de l’un pourront servir de base à l’autre, mais seront appelés à changer. </span><span style="font-weight: 400;">En effet, l’approche devra être adaptée aux résultats de tests utilisateurs et collectes de données, afin que l’expérience utilisateur ne souffre pas au profit de la simplicité du développement.</span></p><p>The post <a href="https://www.nuecho.com/fr/du-chatbot-au-voicebot-plus-quun-peu-de-maquillage/">Du chatbot au voicebot: plus qu’un peu de maquillage</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p><p>The post <a href="https://www.nuecho.com/fr/du-chatbot-au-voicebot-plus-quun-peu-de-maquillage/">Du chatbot au voicebot: plus qu’un peu de maquillage</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Exploration d’approches pour un système de questions-réponses</title>
		<link>https://www.nuecho.com/fr/exploration-dapproches-pour-un-systeme-de-questions-reponses/#utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=exploration-dapproches-pour-un-systeme-de-questions-reponses</link>
		
		<dc:creator><![CDATA[Laurence Dupont]]></dc:creator>
		<pubDate>Tue, 07 Jun 2022 14:28:13 +0000</pubDate>
				<category><![CDATA[Blogue]]></category>
		<guid isPermaLink="false">https://www.nuecho.com/?p=9415</guid>

					<description><![CDATA[<p>Définition du problème La littérature scientifique présente plusieurs façons d’aborder le problème, mais nous nous sommes intéressés plus spécifiquement à la tâche de sélection de réponse. Cette tâche vise à prédire la réponse correcte parmi un ensemble de réponses candidates. Elle suppose qu’il existe toujours une réponse correcte pour chaque question. Cependant, dans un système [&#8230;]</p>
<p>The post <a href="https://www.nuecho.com/fr/exploration-dapproches-pour-un-systeme-de-questions-reponses/">Exploration d’approches pour un système de questions-réponses</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
<p>The post <a href="https://www.nuecho.com/fr/exploration-dapproches-pour-un-systeme-de-questions-reponses/">Exploration d’approches pour un système de questions-réponses</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2><span style="font-weight: 400;">Définition du problème</span></h2>
<p><span style="font-weight: 400;">La littérature scientifique présente plusieurs façons d’aborder le problème, mais nous nous sommes intéressés plus spécifiquement à la tâche de sélection de réponse. Cette tâche vise à prédire la réponse correcte parmi un ensemble de réponses candidates.</span></p>
<p><img decoding="async" class="aligncenter wp-image-9442 size-full" src="https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-Version-courte-1.png" alt="" width="634" height="153" srcset="https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-Version-courte-1.png 634w, https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-Version-courte-1-480x116.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 634px, 100vw" /></p>
<p><span style="font-weight: 400;">Elle suppose qu’il existe toujours une réponse correcte pour chaque question. Cependant, dans un système réel de questions-réponses, on souhaite parfois ne pas fournir de réponse, par exemple si un utilisateur pose une question hors domaine. La tâche de sélection optionnelle de réponse (</span><i><span style="font-weight: 400;">answer triggering</span></i><span style="font-weight: 400;">) offre cette possibilité.</span></p>
<p><img decoding="async" class="aligncenter wp-image-9444 size-full" src="https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-Version-courte-2.png" alt="" width="687" height="174" srcset="https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-Version-courte-2.png 687w, https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-Version-courte-2-480x122.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 687px, 100vw" /></p>
<h2><span style="font-weight: 400;">Définition du système</span></h2>
<p><span style="font-weight: 400;">Pour accomplir la tâche de sélection optionnelle de réponse pour une question donnée, l’implémentation choisie exécute deux sous-tâches:</span></p>
<ol>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Un modèle d’apprentissage automatique (un classifieur) accepte en entrée une représentation vectorielle de la question et retourne les probabilités par classe. Chaque classe est associée à une paire question-réponse.</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">La probabilité la plus élevée est comparée à un seuil pour déterminer si la réponse sera retournée ou non.</span></li>
</ol>
<p><img decoding="async" class="aligncenter wp-image-9446 size-full" src="https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-Version-courte-3.png" alt="" width="800" height="214" srcset="https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-Version-courte-3.png 800w, https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-Version-courte-3-480x128.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 800px, 100vw" /></p>
<p><span style="font-weight: 400;">Des expériences ont ensuite été réalisées pour trouver la meilleure combinaison de modèle de vectorisation et de classifieur pour réaliser la première sous-tâche.</span></p>
<p>&nbsp;</p>
<h2><span style="font-weight: 400;">Expériences</span></h2>
<p><span style="font-weight: 400;">Pour les expériences, l’ensemble de données bancaires </span><a href="https://github.com/PolyAI-LDN/task-specific-datasets"><span style="font-weight: 400;">BANKING77</span></a><span style="font-weight: 400;">, créé par l’entreprise de solutions conversationnelles PolyAI, a été utilisé. Les combinaisons de modèle de vectorisation et de classifieur ont été évaluées sur l’ensemble de test avec la métrique d’exactitude (</span><i><span style="font-weight: 400;">accuracy</span></i><span style="font-weight: 400;">), qui calcule le pourcentage de prédictions correctes.</span></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">Modèles de vectorisation</span></h3>
<p><span style="font-weight: 400;">Parmi les différents modèles de vectorisation, celui qui a le mieux performé est le Universal Sentence Encoder (USE) de Google. C’est un réseau de neurones préentraîné simultanément sur plusieurs tâches de nature sémantique qui accepte en entrée un texte et produit en sortie un plongement de phrase (une représentation vectorielle de la phrase). Le préentraînement est fait sur de très grands corpus de texte comme Wikipédia, ce qui lui permet de bien capturer la similarité sémantique de phrases jamais vues au préalable, comme on peut voir dans l’exemple ci-dessous.</span></p>
<p><img decoding="async" class="aligncenter wp-image-9440 size-full" src="https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-graph-similarite-sementique.png" alt="" width="509" height="401" srcset="https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-graph-similarite-sementique.png 509w, https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-graph-similarite-sementique-480x378.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 509px, 100vw" /></p>
<p style="text-align: center;"><i><span style="font-weight: 400;">Similarité sémantique de phrases tirées de BANKING77 avec USE. </span></i><a href="https://www.tensorflow.org/hub/tutorials/semantic_similarity_with_tf_hub_universal_encoder"><i><span style="font-weight: 400;">Référence</span></i></a></p>
<p>&nbsp;</p>
<h3><span style="font-weight: 400;">Classifieurs</span></h3>
<p><span style="font-weight: 400;">Parmi les classifieurs évalués, on compte notamment un classifieur des k plus proches voisins (KNN) et un réseau de neurones. L’avantage principal du KNN par rapport au réseau de neurones est qu’il n’a pas besoin d’être entraîné, il ne fait que mémoriser les données d’entraînement. Ajouter de nouvelles questions au modèle ne nécessite donc pas un réentraînement. Un autre avantage est que ses prédictions sont interprétables. Pour prédire la classe d’un exemple de test, le KNN trouve ses k plus proches voisins et retourne la classe majoritaire. Le nombre de voisins ainsi que la fonction de distance sont des hyperparamètres configurables.</span></p>
<p><span style="font-weight: 400;">Pour illustrer le fonctionnement du KNN, un exemple simplifié est fourni ci-dessous pour un problème de classification binaire avec des données en 2 dimensions.</span></p>
<p><img decoding="async" class="alignnone size-full wp-image-9452 aligncenter" src="https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-graphs.png" alt="" width="610" height="227" srcset="https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-graphs.png 610w, https://www.nuecho.com/wp-content/uploads/2022/06/Blog-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses-graphs-480x179.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 610px, 100vw" /></p>
<p style="text-align: center;"><i><span style="font-weight: 400;">Exemple pour un KNN avec k=3 et distance euclidienne. Pour l’exemple de test en gris, on<br />
</span></i><i><span style="font-weight: 400;">prédira la classe en bleu (classe majoritaire parmi les 3 plus proches voisins).</span></i></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Dans un premier temps, des expériences ont été réalisées avec un KNN avec </span><a href="https://en.wikipedia.org/wiki/Cosine_similarity"><span style="font-weight: 400;">distance cosinus</span></a><span style="font-weight: 400;">. Dans un deuxième temps, d’autres expériences ont été réalisées avec une fonction de distance apprise (</span><a href="http://contrib.scikit-learn.org/metric-learn/introduction.html"><i><span style="font-weight: 400;">metric learning</span></i></a><span style="font-weight: 400;">) dans le but d’améliorer la performance. L’algorithme utilisé avait pour but de rapprocher les exemples d’une même classe et éloigner les exemples appartenant à des classes différentes. Dans les deux cas, l’exactitude obtenue avec le réseau de neurones était supérieure, ce qui fait en sorte que ce dernier a été choisi comme classifieur.</span></p>
<p>&nbsp;</p>
<h2><span style="font-weight: 400;">Évaluation du système</span></h2>
<p><span style="font-weight: 400;">Les expériences décrites précédemment ont permis d’établir que le meilleur modèle était celui combinant le Universal Sentence Encoder avec un MLP. Pour évaluer ce modèle, une comparaison a été effectuée sur la tâche de sélection optionnelle de réponse avec les modèles de classification d’intentions des engins NLU de Dialogflow ES et Rasa. Pour ce faire, une nouvelle intention “out_of_scope” (hors domaine) contenant </span><a href="https://github.com/ycemsubakan/covid_chatbot_data"><span style="font-weight: 400;">des questions sur la COVID-19</span></a><span style="font-weight: 400;"> a été ajoutée à l’ensemble de test de BANKING77. Pour tous les modèles, rejeter des exemples hors domaine s’est avéré plus difficile que bien classifier les exemples appartenant au domaine. Cependant, dans l’ensemble, c’est le modèle USE combiné à un réseau de neurones qui s’est démarqué. Cette évaluation a donc démontré que ce modèle peut être utilisé pour développer un système de questions-réponses performant et efficace.</span></p>
<p><span style="font-weight: 400;">Pour plus de détails sur les modèles utilisés, la méthodologie suivie et les résultats des expériences, nous vous invitons à consulter <a href="https://www.nuecho.com/wp-content/uploads/2022/06/White-Paper-FR-Exploration-dapproches-pour-un-systeme-de-questions-reponses.pdf" target="_blank" rel="noopener">cet article</a>.</span></p><p>The post <a href="https://www.nuecho.com/fr/exploration-dapproches-pour-un-systeme-de-questions-reponses/">Exploration d’approches pour un système de questions-réponses</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p><p>The post <a href="https://www.nuecho.com/fr/exploration-dapproches-pour-un-systeme-de-questions-reponses/">Exploration d’approches pour un système de questions-réponses</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La nouvelle RVI arrive en ville. Qu’est-ce que ça signifie?</title>
		<link>https://www.nuecho.com/fr/la-nouvelle-rvi-arrive-en-ville-quest-ce-que-ca-signifie/#utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=la-nouvelle-rvi-arrive-en-ville-quest-ce-que-ca-signifie</link>
		
		<dc:creator><![CDATA[Yves Normandin]]></dc:creator>
		<pubDate>Wed, 05 May 2021 14:07:25 +0000</pubDate>
				<category><![CDATA[Blogue]]></category>
		<guid isPermaLink="false">https://zux.zsm.mybluehost.me/news-events/there-is-a-new-ivr-in-town-heres-what-it-means/</guid>

					<description><![CDATA[<p>The post <a href="https://www.nuecho.com/fr/la-nouvelle-rvi-arrive-en-ville-quest-ce-que-ca-signifie/">La nouvelle RVI arrive en ville. Qu’est-ce que ça signifie?</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="et_pb_section et_pb_section_0 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_0">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_0  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_text et_pb_text_0  et_pb_text_align_left et_pb_bg_layout_light">
				
				
				
				
				<div class="et_pb_text_inner">Et en fait, ça n’a rien de bien nouveau. Nous appelons habituellement ça « RVI avec reconnaissance vocale » et c’est ce type d’expériences conversationnelles que nous créons depuis 20 ans.</p>
<p>Ce qui est nouveau, c&rsquo;est qu&rsquo;il existe désormais de nouvelles technologies et de nouvelles plateformes qui promettent d’accélérer et de faciliter la création de ce type d’expériences conversationnelles tout en bonifiant considérablement l’éventail des tâches que les agents virtuels vocaux (comme nous les appelons) peuvent exécuter.</p>
<p>Ces nouvelles technologies ont initialement vu le jour chez les assistants vocaux (Siri, Amazon Echo, Google Home) et sont en train de changer fondamentalement la façon dont les solutions RVI sont développées.</p>
<p>Pour comprendre comment, comparons la « RVI traditionnelle avec reconnaissance vocale » avec cette « nouvelle RVI ».</p>
<table class="MsoNormalTable" style="border-collapse: collapse; border: none; mso-border-alt: solid black 1.0pt; mso-yfti-tbllook: 1184; mso-border-insideh: 1.0pt solid black; mso-border-insidev: 1.0pt solid black;" border="1" cellspacing="0" cellpadding="0">
<tbody>
<tr style="mso-yfti-irow: 0; mso-yfti-firstrow: yes;">
<td style="border: solid black 1.0pt; background: #EFEFEF; padding: 5.0pt 5.0pt 5.0pt 5.0pt;" valign="top">
<p class="MsoNormal" style="margin-bottom: 6.0pt; line-height: normal;"><b><br />
<span style="font-family: 'Arial',sans-serif; mso-fareast-font-family: 'Times New Roman'; color: black; mso-fareast-language: FR-CA;">Technologie</span></b></p>
</td>
<td style="border: solid black 1.0pt; border-left: none; mso-border-left-alt: solid black 1.0pt; background: #EFEFEF; padding: 5.0pt 5.0pt 5.0pt 5.0pt;" valign="top">
<p class="MsoNormal" style="margin-bottom: 6.0pt; line-height: normal;"><b><br />
<span style="font-family: 'Arial',sans-serif; mso-fareast-font-family: 'Times New Roman'; color: black; mso-fareast-language: FR-CA;">RVI traditionnelle avec reconnaissance vocale</span></b></p>
</td>
<td style="border: solid black 1.0pt; border-left: none; mso-border-left-alt: solid black 1.0pt; background: #EFEFEF; padding: 5.0pt 5.0pt 5.0pt 5.0pt;" valign="top">
<p class="MsoNormal" style="margin-bottom: 6.0pt; line-height: normal;"><b><br />
<span style="font-family: 'Arial',sans-serif; mso-fareast-font-family: 'Times New Roman'; color: black; mso-fareast-language: FR-CA;">Nouvelle RVI</span></b></p>
</td>
</tr>
<tr style="mso-yfti-irow: 1;">
<td style="border: solid black 1.0pt; border-top: none; mso-border-top-alt: solid black 1.0pt; padding: 5.0pt 5.0pt 5.0pt 5.0pt;" valign="top">
<p class="MsoNormal" style="margin-bottom: 6.0pt; line-height: normal;"><span style="font-family: 'Arial',sans-serif; mso-fareast-font-family: 'Times New Roman'; color: black; mso-fareast-language: FR-CA;">Reconnaissance vocale</span></p>
</td>
<td style="border-top: none; border-left: none; border-bottom: solid black 1.0pt; border-right: solid black 1.0pt; mso-border-top-alt: solid black 1.0pt; mso-border-left-alt: solid black 1.0pt; padding: 5.0pt 5.0pt 5.0pt 5.0pt;" valign="top">
<p class="MsoNormal" style="margin-bottom: 6.0pt; line-height: normal;"><span lang="EN-CA" style="font-family: 'Arial',sans-serif; mso-fareast-font-family: 'Times New Roman'; color: black; mso-ansi-language: EN-CA; mso-fareast-language: FR-CA;">Grammaires et modèles de langage statistiques</span></p>
</td>
<td style="border-top: none; border-left: none; border-bottom: solid black 1.0pt; border-right: solid black 1.0pt; mso-border-top-alt: solid black 1.0pt; mso-border-left-alt: solid black 1.0pt; padding: 5.0pt 5.0pt 5.0pt 5.0pt;" valign="top">
<p class="MsoNormal" style="margin-bottom: 6.0pt; line-height: normal;"><span style="font-family: 'Arial',sans-serif; mso-fareast-font-family: 'Times New Roman'; color: black; mso-fareast-language: FR-CA;">Transcription automatique de la parole (speech-to-text)</span></p>
</td>
</tr>
<tr style="mso-yfti-irow: 2;">
<td style="border: solid black 1.0pt; border-top: none; mso-border-top-alt: solid black 1.0pt; padding: 5.0pt 5.0pt 5.0pt 5.0pt;" valign="top">
<p class="MsoNormal" style="margin-bottom: 6.0pt; line-height: normal;"><span style="font-family: 'Arial',sans-serif; mso-fareast-font-family: 'Times New Roman'; color: black; mso-fareast-language: FR-CA;">Compréhension du langage naturel (CLN/NLU)</span></p>
</td>
<td style="border-top: none; border-left: none; border-bottom: solid black 1.0pt; border-right: solid black 1.0pt; mso-border-top-alt: solid black 1.0pt; mso-border-left-alt: solid black 1.0pt; padding: 5.0pt 5.0pt 5.0pt 5.0pt;" valign="top">
<p class="MsoNormal" style="margin-bottom: 6.0pt; line-height: normal;"><span style="font-family: 'Arial',sans-serif; mso-fareast-font-family: 'Times New Roman'; color: black; mso-fareast-language: FR-CA;">Grammaires et classificateurs simples</span></p>
</td>
<td style="border-top: none; border-left: none; border-bottom: solid black 1.0pt; border-right: solid black 1.0pt; mso-border-top-alt: solid black 1.0pt; mso-border-left-alt: solid black 1.0pt; padding: 5.0pt 5.0pt 5.0pt 5.0pt;" valign="top">
<p class="MsoNormal" style="margin-bottom: 6.0pt; line-height: normal;"><span style="font-family: 'Arial',sans-serif; mso-fareast-font-family: 'Times New Roman'; color: black; mso-fareast-language: FR-CA;">Traitement automatique du langage naturel (TALN) par apprentissage profond (deep learning)</span></p>
</td>
</tr>
<tr style="mso-yfti-irow: 3; mso-yfti-lastrow: yes;">
<td style="border: solid black 1.0pt; border-top: none; mso-border-top-alt: solid black 1.0pt; padding: 5.0pt 5.0pt 5.0pt 5.0pt;" valign="top">
<p class="MsoNormal" style="margin-bottom: 6.0pt; line-height: normal;"><span style="font-family: 'Arial',sans-serif; mso-fareast-font-family: 'Times New Roman'; color: black; mso-fareast-language: FR-CA;">Synthèse de la parole</span></p>
</td>
<td style="border-top: none; border-left: none; border-bottom: solid black 1.0pt; border-right: solid black 1.0pt; mso-border-top-alt: solid black 1.0pt; mso-border-left-alt: solid black 1.0pt; padding: 5.0pt 5.0pt 5.0pt 5.0pt;" valign="top">
<p class="MsoNormal" style="margin-bottom: 6.0pt; line-height: normal;"><span lang="EN-CA" style="font-family: 'Arial',sans-serif; mso-fareast-font-family: 'Times New Roman'; color: black; mso-ansi-language: EN-CA; mso-fareast-language: FR-CA;">Concaténation de segment vocaux + synthèse vocale (TTS)</span></p>
</td>
<td style="border-top: none; border-left: none; border-bottom: solid black 1.0pt; border-right: solid black 1.0pt; mso-border-top-alt: solid black 1.0pt; mso-border-left-alt: solid black 1.0pt; padding: 5.0pt 5.0pt 5.0pt 5.0pt;" valign="top">
<p class="MsoNormal" style="margin-bottom: 6.0pt; line-height: normal;"><span style="font-family: 'Arial',sans-serif; mso-fareast-font-family: 'Times New Roman'; color: black; mso-fareast-language: FR-CA;">Synthèse vocale (TTS), principalement</span></p>
</td>
</tr>
</tbody>
</table>
<p>Regardons tout cela plus en détails.</p>
<h2><b>RVI traditionnelle avec reconnaissance vocale</b></h2>
<p><span style="font-weight: 400;">Les engins de reconnaissance vocale traditionnellement utilisés dans les RVI (par exemple,</span><a href="https://www.nuance.com/omni-channel-customer-engagement/voice-and-ivr/automatic-speech-recognition/nuance-recognizer.html" target="_blank" rel="noopener"> <span style="font-weight: 400;">Nuance Recognizer</span></a><span style="font-weight: 400;">) ne sont pas en mesure de fonctionner “out-of-the-box”. Pour cela, on doit faire appel à des grammaires de reconnaissance vocale. Il existe deux types principaux de grammaires :</span></p>
<ol>
<li><b>Les grammaires SRGS </b><span style="font-weight: 400;">sont définies par</span><a href="https://www.w3.org/TR/speech-grammar/" target="_blank" rel="noopener"> <span style="font-weight: 400;">un ensemble de règles</span></a><span style="font-weight: 400;">, élaborées manuellement par un développeur de grammaires. Elles fournissent une description formelle des énoncés qui peuvent être reconnus par l’engin de reconnaissance. Le langage défini par les grammaires SRGS est rigide et seuls les énoncés prévus dans ces grammaires peuvent être reconnus par l’engin. Les grammaires SRGS sont bien adaptées aux dialogues dirigés, qui présentent typiquement un ensemble prévisible d&rsquo;énoncés qui seront fournis par l&rsquo;utilisateur.</span></li>
<li><b>Les modèles de langage statistique (SLM)</b><span style="font-weight: 400;"> sont définis par des</span><a href="https://en.wikipedia.org/wiki/N-gram" target="_blank" rel="noopener"> <span style="font-weight: 400;">N-grammes</span></a><span style="font-weight: 400;">; ce sont les probabilités d&rsquo;occurrence un mot étant donnés les mots précédents dans la phrase, probabilités apprises à partir d&rsquo;un échantillon de phrases. Les modèles SLM fournissent un modèle de langage beaucoup moins rigide que les grammaires SRGS et sont donc beaucoup mieux adaptés pour traiter les réponses aux questions ouvertes (par exemple, « Comment puis-je vous aider? »), réponses normalement plus spontanées, et fournies par l’utilisateur en langage naturel. Pour bien performer, les modèles SLM doivent pouvoir s’entraîner sur un corpus de phrases suffisamment grand et représentatif du domaine ciblé.</span></li>
</ol>
<p><span style="font-weight: 400;">Le développement d&rsquo;une application RVI traditionnelle avec reconnaissance vocale nécessite la création d&rsquo;une grammaire distincte pour chacune des étapes du dialogue. De plus, pour atteindre un niveau de précision de reconnaissance suffisant, ces grammaires doivent subir de nombreux réglages basés sur des énoncés d&rsquo;utilisateurs réels, qui auront été collectés par l&rsquo;application RVI en production.</span></p>
<p><span style="font-weight: 400;">Le développement et le réglage de ces grammaires sont des tâches chronophages qui nécessitent l’intervention de spécialistes de la parole hautement qualifiés. Si cela est bien fait, on peut atteindre une très grande précision dans la reconnaissance et créer des expériences utilisateur positives. Malheureusement, ces tâches sont trop souvent négligées, ce qui se traduit inévitablement par des performances de l’engin de reconnaissance décevantes, ce qui à son tour entraîne une expérience utilisateur médiocre. C&rsquo;est d’ailleurs une des principales raisons pour lesquelles les RVI avec reconnaissance vocale ont si souvent mauvaise réputation.</span></p>
<h2><b>Transcription automatique de la parole (</b><b><i>speech-to-text, STT</i></b><b>)</b></h2>
<p><span style="font-weight: 400;">Au cours des dernières années, et grâce à l&rsquo;apprentissage profond, nous avons assisté à une évolution fulgurante des technologies de reconnaissance vocale. Cette importante percée a permis d’entraîner des engins STT qui arrivent à fournir des transcriptions vocales de haute précision pour des types presque illimités de vocabulaires. De nos jours, bon nombre de fournisseurs proposent des engins STT (par exemple,</span><a href="https://cloud.google.com/speech-to-text" target="_blank" rel="noopener"> <span style="font-weight: 400;">Google STT</span></a><span style="font-weight: 400;">,</span><a href="https://docs.mix.nuance.com/asr-grpc/v1/#asr-as-a-service-grpc-api" target="_blank" rel="noopener"> <span style="font-weight: 400;">Nuance Krypton</span></a><span style="font-weight: 400;">,</span><a href="https://aws.amazon.com/transcribe/" target="_blank" rel="noopener"> <span style="font-weight: 400;">Amazon Transcribe</span></a><span style="font-weight: 400;">,</span><a href="https://deepgram.com/" target="_blank" rel="noopener"> <span style="font-weight: 400;">Deepgram</span></a><span style="font-weight: 400;">, etc.) et il existe également des versions en code source libre (</span><i><span style="font-weight: 400;">open-source</span></i><span style="font-weight: 400;">).</span></p>
<p><span style="font-weight: 400;">Avec l’utilisation des engins STT, il n&rsquo;est plus nécessaire de développer des grammaires, un gain de temps non négligeable lors de la création d&rsquo;applications RVI conversationnelles. Est-ce que l’on vient ici de résoudre l’énigme de la reconnaissance vocale? Loin de là! Atteindre un niveau de précision acceptable reste un enjeu majeur. En fait, des grammaires adéquatement réglées apporteront un niveau de précision souvent nettement plus élevé que le meilleur des engins STT.</span></p>
<p><span style="font-weight: 400;">Actuellement, les principaux problèmes rencontrés lors de l’utilisation d’engins STT sont:</span></p>
<ul>
<li><b>Données d&rsquo;entraînement</b><span style="font-weight: 400;">. Comme pour tout modèle basé sur l&rsquo;apprentissage automatique, les performances du modèle STT seront optimales si ses données d&rsquo;entraînement sont représentatives des conditions dans lesquelles il est utilisé. Ainsi, si un modèle était, par exemple, principalement entraîné sur des enregistrements obtenus à partir d’un haut-parleur intelligent, abordant typiquement des thèmes tels que la météo, le réglage des alarmes, la lecture de musique et des questions de connaissances générales, il est fort probable que ce modèle n’offrirait pas des performances optimales dans le cadre d’une application RVI de type bancaire. S’il était possible d&rsquo;affiner les réglages d’un modèle STT en l’entraînant sur des données spécifiques à un domaine précis, cela pourrait faire une énorme différence en ce qui a trait à la précision. Malheureusement, la plupart des fournisseurs d’engins STT ne permettent pas cette option (exception faite de Deepgram). Notons toutefois que Nuance fournit une solution partielle en permettant d’entraîner le modèle par langue de domaine (</span><i><span style="font-weight: 400;">domain language model, DLM</span></i><span style="font-weight: 400;">) sur des phrases spécifiques à chaque domaine ciblé.</span></li>
</ul>
<ul>
<li><b>Contextualisation.</b><span style="font-weight: 400;"> Les engins STT peuvent conceptuellement reconnaître n&rsquo;importe quel énoncé d&rsquo;utilisateur, que celui-ci parle de films, de politique, de météo, de musique, peu importe. C’est une fonctionnalité très puissante, mais qui peut aussi devenir un handicap dans le contexte des applications conversationnelles, qui sont généralement spécifiques à un domaine particulier en plus d’être fortement contextualisées. Si un agent virtuel demande à un utilisateur de fournir une date de naissance, il y a fort à parier que l&rsquo;utilisateur réponde en fournissant une date de naissance. La fait de savoir tirer profit de ces connaissances contextualisées peut grandement améliorer la précision de la reconnaissance vocale. Les humains font cela constamment, sans même s&rsquo;en rendre compte. Certains engins STT fournissent quelques capacités de contextualisation (par exemple,</span><a href="https://cloud.google.com/speech-to-text/docs/adaptation-model" target="_blank" rel="noopener"> <span style="font-weight: 400;">la fonctionnalité d&rsquo;adaptation de modèle de l’engin STT de Google</span></a><span style="font-weight: 400;">), mais celles-ci restent assez limitées pour le moment.</span></li>
</ul>
<ul>
<li><b>Optimisation.</b><span style="font-weight: 400;"> Les engins de reconnaissance vocale des RVI traditionnelles offrent plusieurs moyens efficaces d&rsquo;optimiser la précision. Par exemple, d’importants gains de précision peuvent être obtenus en affinant les transcriptions phonétiques, en modélisant la coarticulation à l’intérieur des mots et entre les mots, en modélisant les disfluences verbales, en ajustant les poids des différents éléments d’une grammaires ou les poids des différentes grammaires, en intervenant dans le post-traitement des meilleurs résultats (</span><i><span style="font-weight: 400;">N-best results</span></i><span style="font-weight: 400;">), etc. La plupart des engin STT offrent peu, sinon pas de moyens d’optimiser la précision.</span></li>
</ul>
<ul>
<li><b>Support multilingue.</b><span style="font-weight: 400;"> Nu Echo étant située à Montréal, ville bilingue, la plupart des applications conversationnelles que nous déployons doivent savoir traiter les mots anglais dans les phrases en français et vice-versa (la reconnaissance d&rsquo;adresses en est un très bon exemple). Cela ne peut être fait efficacement qu&rsquo;avec un engin de reconnaissance vocale capable de traiter deux langues différentes à l’intérieur d’un seul et même énoncé, une fonctionnalité disponible chez certains engins de reconnaissance vocale des RVI traditionnelles, mais dans aucun engin STT de notre connaissance.</span></li>
</ul>
<p><span style="font-weight: 400;">Les technologies STT évoluent extrêmement rapidement. Nous pouvons donc nous attendre à ce que le niveau de précision de reconnaissance soit en constante amélioration, à pouvoir profiter d’outils de contextualisation et d&rsquo;optimisation de plus en plus efficaces, à accéder plus facilement à des modèles pouvant être optimisés en fonction de domaines spécifiques. En attendant, la solution idéale pourrait très bien être une combinaison engins STT, engins RVI traditionnelles.</span></p>
<h2><b>Compréhension du langage naturel (</b><b><i>natural language understanding</i></b><b>, </b><b><i>NLU</i></b><b>)</b></h2>
<p><span style="font-weight: 400;">Les premières applications RVI avec reconnaissance vocale reposaient exclusivement sur les grammaires SRGS pour la reconnaissance vocale; la compréhension du langage naturel (NLU) n&rsquo;était donc pas un problème, le NLU étant intégré à la grammaire.</span></p>
<p><span style="font-weight: 400;">L&rsquo;utilisation de modèles de langage statistiques (SLM) a fait naître le besoin d&rsquo;avoir un engin NLU distinct, capable de comprendre les résultats de reconnaissance pour des énoncés spontanés. Des techniques de détection d&rsquo;intentions, basées sur des techniques simples d&rsquo;apprentissage automatique,</span><a href="http://www.aclweb.org/anthology/J99-3003.pdf" target="_blank" rel="noopener"> <span style="font-weight: 400;">ont été introduites il y a plus de 20 ans</span></a><span style="font-weight: 400;">, pour des besoins reliés à l’aiguillage d&rsquo;appels en langage naturel. Ces techniques font très bien fait l’affaire, mais elles nécessitent habituellement un imposant échantillon de phrases, pour chacune des intentions, afin que le modèle soit correctement entraîné, ce qui représente souvent un obstacle de taille à la mise en service d&rsquo;un système.</span></p>
<p><span style="font-weight: 400;">Durant bon nombres d’années, ces techniques n&rsquo;ont pas beaucoup évolué. Puis, est arrivé l&rsquo;apprentissage profond, qui a totalement changé le paysage des technologies de traitement du langage naturel. Un premier grand changement a été l&rsquo;introduction des représentations vectorielles continues de mots (</span><i><span style="font-weight: 400;">word embeddings</span></i><span style="font-weight: 400;">), qui améliorent la généralisabilité et permettent de diminuer de façon considérable la taille de l’échantillon de phrases nécessaire pour entraîner les modèles NLU. Plus récemment, des modèles de langage de grande taille (entraînés sur de gros corpus de données, par exemple BERT) et de nouvelles architectures de réseaux neuronaux apportent d’autres améliorations d’envergure.</span></p>
<p><span style="font-weight: 400;">Il est intéressant de noter que les technologies NLU utilisées pour traiter les conversations textuelles sont les même que celles utilisées pour traiter les conversations vocales, alors qu’il existe des différences importantes entre ces deux types de conversation. Par exemple, les systèmes traitant des conversations textuelles doivent être capables de gérer de manière fiable les fautes de frappe, les acronymes et les sigles (par exemple, « lol », « mdr »), les émoticônes, etc., alors que les systèmes traitant les conversations vocales doivent, de leur côté, savoir gérer les différences orthographiques entre homophones (par exemple, « cent » vs. « sans », « Desjardins » vs. « des jardins » ou « soixante-treize » (73) vs. « soixante treize » (60 13)), les normalisations de l’engin STT non-souhaitées (par exemple, « H 1 M 2 L 5 » → « H un mètre deux L cinq »), sans parler des erreurs de reconnaissance vocale.</span></p>
<p><span style="font-weight: 400;">Abordons maintenant certains problèmes reliés à l’utilisation des engins NLU :</span></p>
<ul>
<li><b>Contextualisation.</b><span style="font-weight: 400;"> La plupart des engins NLU ne sont pas contextuels (à l’exception de Dialogflow), ce qui peut être un problème car le même énoncé peut avoir des interprétations différentes en fonction du contexte dans lequel il apparaît. Par exemple, l’interprétation de l’énoncé « Montréal » sera différente selon que la question posée était « quelle est votre destination? » ou « quelle est la ville de départ? »</span></li>
</ul>
<ul>
<li><b>Score de confiance.</b><span style="font-weight: 400;"> Un dialogue de réparation efficace doit pouvoir s’appuyer sur des scores de confiance fiables mais malheureusement, les scores de confiance des engins NLU n’ont pas tendance à être très précis. De plus, les scores des engins NLU ne prennent généralement pas en compte le score de confiance de reconnaissance vocale. Or, comment se fier à un résultat NLU s&rsquo;il est lui-même basé sur un résultat de reconnaissance vocale à faible score de confiance? Pour être considérés comme sûrs, les scores de confiance des applications conversationnelles vocales doivent prendre en compte à la fois les scores STT et les scores NLU.</span></li>
</ul>
<ul>
<li><b>Meilleurs résultats (</b><b><i>N-best results</i></b><b>).</b><span style="font-weight: 400;"> De nombreux engins NLU ne renvoient qu’une seule intention, celle avec le score de confiance le plus élevé, même si elle apparaît auprès d’autres intentions ayant des scores presque identiques. Le fait de pouvoir avoir accès à une liste des meilleurs résultats (</span><i><span style="font-weight: 400;">N-best results</span></i><span style="font-weight: 400;">) permet de prendre de meilleures décisions en ce qui a trait au dialogue (par exemple, lorsque vient le temps de désambiguïser certains énoncés) ou de choisir la meilleure hypothèse en fonction d’informations contextuelles qui ne seraient pas disponibles pour l’engin NLU.</span></li>
</ul>
<p><span style="font-weight: 400;">Le traitement automatique du langage naturel est actuellement l&rsquo;un des domaines de recherche en intelligence artificielle des plus dynamiques et nous nous attendons à ce que les systèmes d&rsquo;IA conversationnels bénéficient d’un flux continu d&rsquo;avancées technologiques.</span></p>
<h2><b>Synthèse de la parole</b></h2>
<p><span style="font-weight: 400;">Les technologies de synthèse vocale (TTS) existent depuis très longtemps, mais jusqu&rsquo;à tout récemment, la qualité et l&rsquo;intelligibilité des résultats n&rsquo;étaient pas assez bonnes pour offrir une expérience conversationnelle convenable. Les segments vocaux des meilleures applications RVI avec reconnaissance vocale étaient presque tous enregistrés en studio avec des voix professionnelles. Pour ce qui est du rendu des phrases comprenant des données dynamiques, on devait alors procéder à de la concaténation de segments, ce qui est assez complexe à faire correctement.</span></p>
<p><span style="font-weight: 400;">Mais des progrès phénoménaux ont récemment vu le jour du côté des technologies TTS. Il est ainsi désormais raisonnable, dans la plupart des cas, d&rsquo;utiliser des voix de synthèse plutôt que des enregistrements studio. C’est particulièrement vrai en anglais, où la qualité de la meilleure voix de synthèse est telle qu’il est parfois difficile de la distinguer d’une voix humaine. De plus, on peut maintenant créer des voix de synthèse personnalisées qui peuvent imiter notre voix professionnelle préférée.</span></p>
<p><span style="font-weight: 400;">Le recours aux technologies TTS change vraiment la donne pour tout ce qui a trait à la création et au développement des applications RVI conversationnelles. D’une part, elles éliminent le besoin de retourner constamment en studio pour enregistrer de nouveaux segments vocaux dès que survient un changement à l’application. D’autre part, elles nous épargnent de fastidieuses manipulations de milliers de segments vocaux (dans souvent plus d’une langue), tâches trop souvent sources d’erreurs. Désormais, les applications peuvent être modifiées, testées et mises en production dans la foulée.</span></p>
<p><span style="font-weight: 400;">Bien sûr, les technologies TTS ne sont pas parfaites et nous rencontrons encore des erreurs occasionnelles, mais généralement il s’agit d’un faible prix à payer en comparaison avec l&rsquo;immense valeur ajoutée qu&rsquo;elles apportent. La solution idéale pourrait très bien être une combinaison d’enregistrements en studio, pour les segments audios clés où nous recherchons une intonation et une émotion précise, et de segments de synthèse personnalisés, construits à partir de la même voix professionnelle que celle utilisée dans les segments pré-enregistrés.</span></p>
<h2><b>Intégration avec les plateformes de centre de contacts</b></h2>
<p><span style="font-weight: 400;">Les applications RVI traditionnelles avec reconnaissance vocale ont longtemps adhéré à des standards éprouvés pour réaliser l’intégration de technologies conversationnelles; qu’on pense au</span><a href="https://tools.ietf.org/html/rfc6787" target="_blank" rel="noopener"> <span style="font-weight: 400;">protocole MRCP</span></a><span style="font-weight: 400;"> pour la reconnaissance et la synthèse vocale, au</span><a href="https://www.w3.org/TR/voicexml20/" target="_blank" rel="noopener"> <span style="font-weight: 400;">langage VoiceXML</span></a><span style="font-weight: 400;"> pour les dialogues, à la</span><a href="https://www.w3.org/TR/speech-grammar/" target="_blank" rel="noopener"> <span style="font-weight: 400;">spécification SRGS</span></a><span style="font-weight: 400;"> pour les grammaires de reconnaissance vocale ou au</span><a href="https://www.w3.org/TR/semantic-interpretation/" target="_blank" rel="noopener"> <span style="font-weight: 400;">mécanisme SISR</span></a><span style="font-weight: 400;"> pour l&rsquo;interprétation sémantique.</span></p>
<p><span style="font-weight: 400;">Désormais, avec l&rsquo;émergence d&rsquo;une nouvelle génération de plateformes de centre de contacts infonuagiques et l&rsquo;arrivée des plus récentes technologies basées sur l’apprentissage profond, tous ces standards deviennent obsolètes et sont remplacées par un éventail d&rsquo;interfaces de programmation (API) propriétaires et de nouveaux standards émergents (par exemple,</span><a href="https://grpc.io/" target="_blank" rel="noopener"> <span style="font-weight: 400;">l’environnement gRPC</span></a><span style="font-weight: 400;">).</span></p>
<p><span style="font-weight: 400;">L&rsquo;intégration de ces nouvelles technologies conversationnelles avec les plateformes de centre de contacts demeure une tâche en cours d’évolution. Voici ce que nous constatons:</span></p>
<ul>
<li><span style="font-weight: 400;">Certaines fonctionnalités de base que nous tenions habituellement pour acquises (par exemple, les interruptions (</span><i><span style="font-weight: 400;">barge-in</span></i><span style="font-weight: 400;">) et le repli DTMF) ne sont pas toujours disponibles</span></li>
<li><span style="font-weight: 400;">Le choix des technologies conversationnelles disponibles sur plusieurs plateformes de centres de contacts reste limité</span></li>
<li><span style="font-weight: 400;">Même lorsque des intégrations sont disponibles, il est souvent très difficile de tirer pleinement profit du potentiel des nouvelles technologies (par exemple, le fait de ne pas avoir accès aux scores de confiance ou aux listes des meilleurs résultats (</span><i><span style="font-weight: 400;">N-best</span></i><span style="font-weight: 400;">), le fait qu’il soit impossible de faire du post-traitement sur les résultats STT avant de les envoyer à l’engin NLU, etc.)</span></li>
</ul>
<p><span style="font-weight: 400;">Certaines solutions voient tranquillement le jour afin de combler ces problèmes d&rsquo;intégration. Par exemple, Audiocodes, avec son</span><a href="https://voiceaiconnect.audiocodes.com/" target="_blank" rel="noopener"> <span style="font-weight: 400;">VoiceAI Connect</span></a><span style="font-weight: 400;">, prétend fournir « une connectivité facile entre toute plateforme de centre de contacts et tout environnement de développement robot ou tout engin vocal » (</span><i><span style="font-weight: 400;">“easy connectivity between any CC platform and any bot frameworks or speech engine”</span></i><span style="font-weight: 400;">). Cela pourrait permettre d’exploiter au mieux les technologies conversationnelles en fonction des exigences propres à chaque solution à implanter.</span></p>
<h2><b>Le meilleur des deux mondes</b></h2>
<p><span style="font-weight: 400;">L&rsquo;apprentissage profond a un impact fondamental sur les technologies d&rsquo;IA conversationnelles et cela change considérablement la façon dont nous envisageons le développement des applications RVI. Nous sommes encore aux balbutiements de cette transformation. Ces nouvelles technologies sont encore trop immatures mais évolueront probablement très rapidement dans un avenir proche. À nous de nous adapter à leur évolution rapide et de comprendre comment les exploiter le plus efficacement possible.</span></p>
<p><span style="font-weight: 400;">Néanmoins, ces nouvelles technologies offrent déjà des avantages concrets très significatifs. Par exemple :</span></p>
<ul>
<li><span style="font-weight: 400;">Il n&rsquo;est désormais plus nécessaire, pour que la reconnaissance vocale fonctionne, de créer des grammaires complexes ou de recueillir des milliers d&rsquo;énoncés d’entrainement pour des modèles SLM. La précision de reconnaissance vocale des meilleurs engins STT est, d’emblée, suffisamment acceptable, de sorte qu&rsquo;il est désormais possible de mettre rapidement en production un système opérationnel.</span></li>
<li><span style="font-weight: 400;">Les plus récents engins NLU peuvent être entraînés avec énormément moins de phrases que les anciennes technologies de classification NLU, ce qui permet, ici encore, de pouvoir mettre très rapidement en production la première version d’un système.</span></li>
<li><span style="font-weight: 400;">Les plus récentes technologies de synthèse vocale sont devenues si performantes qu&rsquo;il n&rsquo;est maintenant presque plus nécessaire de recourir à des segments audios pré-enregistrés (en particulier pour l’anglais). Cela réduit considérablement le délai nécessaire pour concevoir et mettre en production des nouvelles versions d&rsquo;une application, facilitant et accélérant ainsi grandement leur déploiement.</span></li>
</ul>
<p><span style="font-weight: 400;">La possibilité de mettre rapidement en service une première version d&rsquo;une application est cruciale car elle permet de commencer rapidement à recueillir de vraies données conversationnelles et des énoncés d’usagers réels, matière première avec laquelle le système peut être amélioré et optimisé de façon continue.</span></p>
<p><span style="font-weight: 400;">Alors que certaines des limites des technologies STT commencent à être prises en considération (par exemple, en termes de contextualisation, d&rsquo;optimisation, de traitement multilingue, etc.), les développeurs d&rsquo;applications RVI conversationnelles devraient envisager de combiner les technologies STT avec les technologies de reconnaissance vocale des RVI traditionnelles afin d&rsquo;obtenir le meilleur des deux mondes et d’offrir aux utilisateurs de RVI conversationnelles des expériences remarquables (certaines plateformes RVI, par exemple la</span><a href="https://docs.genesys.com/Documentation/GVP" target="_blank" rel="noopener"> <span style="font-weight: 400;">plateforme vocale de Genesys</span></a><span style="font-weight: 400;">, permettent cette combinaison d’approches).</span></div>
			</div>
			</div>
				
				
				
				
			</div>
				
				
			</div><p>The post <a href="https://www.nuecho.com/fr/la-nouvelle-rvi-arrive-en-ville-quest-ce-que-ca-signifie/">La nouvelle RVI arrive en ville. Qu’est-ce que ça signifie?</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p><p>The post <a href="https://www.nuecho.com/fr/la-nouvelle-rvi-arrive-en-ville-quest-ce-que-ca-signifie/">La nouvelle RVI arrive en ville. Qu’est-ce que ça signifie?</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Retour sur l’entrevue live sur Google CCAI de VUX World avec Antony Passemard</title>
		<link>https://www.nuecho.com/fr/retour-sur-lentrevue-live-sur-google-ccai-de-vux-world-avec-antony-passemard/#utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=retour-sur-lentrevue-live-sur-google-ccai-de-vux-world-avec-antony-passemard</link>
		
		<dc:creator><![CDATA[Yves Normandin]]></dc:creator>
		<pubDate>Fri, 26 Mar 2021 18:05:19 +0000</pubDate>
				<category><![CDATA[Blogue]]></category>
		<guid isPermaLink="false">https://zux.zsm.mybluehost.me/news-events/retour-sur-lentrevue-live-sur-google-ccai-de-vux-world-avec-antony-passemard/</guid>

					<description><![CDATA[<p>The post <a href="https://www.nuecho.com/fr/retour-sur-lentrevue-live-sur-google-ccai-de-vux-world-avec-antony-passemard/">Retour sur l’entrevue live sur Google CCAI de VUX World avec Antony Passemard</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="et_pb_section et_pb_section_1 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_1">
								<div class="et_pb_column et_pb_column_4_4 et_pb_column_1  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_text et_pb_text_1  et_pb_text_align_left et_pb_bg_layout_light">
				
				
				
				
				<div class="et_pb_text_inner"><h2>Dialogflow CX vs. ES</h2>
<p><span style="font-weight: 400;">L’entrevue débutait par une comparaison entre Dialogflow CX et ES. CX n’est pas qu’une simple évolution par rapport à ES; c’est en fait un redesign complet, avec un modèle de dialogue plus intuitif et beaucoup plus puissant. CX propose entre autres une nette séparation entre les intentions et les dialogues, ce qui augmente considérablement la réutilisabilité des intentions et la gestion des dialogues. CX vient avec une interface visuelle qui peut facilement être utilisée par les “Conversational Architects” afin de créer des dialogues complexes tout en utilisant moins de lignes de code. </span></p>
<p><span style="font-weight: 400;">Selon Passemard, c’était une demande de longue date de la part de beaucoup de clients. Bien que Google continuera à supporter et faire évoluer Dialogflow ES, qui reste approprié pour des dialogues simples, Dialogflow CX devrait devenir la plateforme toute désignée pour gérer les dialogues longs et complexes. De plus, Dialogflow CX offre plusieurs avantages par rapport à ES :</span></p>
<ul>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Une tarification plus prévisible (mais pas nécessairement moins coûteuse)</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Plusieurs fonctionnalités spécifiques pour la RVI (incluant le support du ‘’barge-in’’, du DTMF, des “timeouts” et des “retries”)</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">La possibilité de supporter jusqu’à 40 000 intentions (comparativement à 2 000 avec ES)</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Davantage de fonctionnalités de collaboration qui permettent aux équipes de développement de travailler plus efficacement sur de grands projets</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Un meilleur support pour l&rsquo;analytique, l’expérimentation et les boucles de rétroaction.</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Un engin NLU plus performant, basé sur le dernier modèle BERT.</span></li>
</ul>
<p><span style="font-weight: 400;">Tout le monde peut utiliser Dialogflow aujourd&rsquo;hui. Cependant, pour la RVI conversationnelle, l&rsquo;intégration de Dialogflow à une plateforme de centre de contact reste généralement un défi. Par exemple, la plateforme RVI doit pouvoir fournir à Dialogflow certains événements ou paramètres, que ce soit pour utiliser le DTMF pour des choix de menus, ou encore pour la gestion incrémentielle d’événements “no-input”.</span></p>
<p><span style="font-weight: 400;">Passemard a mentionné que certaines solutions, telles que Audiocodes, peuvent faciliter cette intégration. Fait intéressant, il a également mentionné qu&rsquo;il est préférable de transmettre le flux audio directement à Dialogflow plutôt que d&rsquo;utiliser Google STT pour transcrire l&rsquo;audio et envoyer par la suite la transcription vers Dialogflow. La raison étant que Dialogflow dispose d’une fonction </span><a href="https://cloud.google.com/dialogflow/cx/docs/concept/speech-adaptation"><span style="font-weight: 400;">d’adaptation vocale automatique</span></a><span style="font-weight: 400;"> qui optimise la précision de la transcription en fonction des phrases d’apprentissage de l’agent.</span></p>
<p><span style="font-weight: 400;">Cela dit, notre propre expérience montre que nous pouvons souvent obtenir des résultats aussi bons sinon meilleurs en transmettant l&rsquo;audio directement à Google STT, en utilisant </span><a href="https://cloud.google.com/speech-to-text/docs/speech-adaptation"><span style="font-weight: 400;">l&rsquo;adaptation vocale</span></a><span style="font-weight: 400;">. De plus, il est souvent nécessaire de post-traiter les résultats de transcription afin de les rendre compatibles avec le NLU de Dialogflow, ce qui n’est pas possible lorsqu’on transmet le flux audio directement à Dialogflow.</span></p>
<h2><span style="font-weight: 400;">L’Assistant à l’Agent pour le canal voix</span></h2>
<p><span style="font-weight: 400;">Le sujet suivant abordé dans l&rsquo;entrevue était l’Assistant à l’Agent (“Agent Assist”). C&rsquo;est un sujet d’importance pour au moins deux raisons. D’abord, parce qu’il existe des cas d&rsquo;utilisation très prometteurs pour l’Assistant à l’Agent et ensuite parce que nous avons beaucoup entendu parler de l’Assistant à l’Agent CCAI au cours des deux dernières années, mais qu’il a été difficile de comprendre exactement comment accéder à cette capacité.</span></p>
<p><span style="font-weight: 400;">Sur ce dernier point, Passemard a confirmé ce que nous soupçonnions, c’est-à-dire qu’il n&rsquo;y a pas d&rsquo;API publique pour l’Assistant à l’Agent vocal, Google ayant décidé de le rendre disponible uniquement via les partenaires de téléphonie CCAI. Comme le mentionne Simms, c’est probablement une bonne stratégie commerciale pour Google. En travaillant de manière agressive avec les partenaires de téléphonie pour intégrer l’Assistant à l’Agent à leurs plates-formes et en vendant cette fonctionnalité exclusivement à travers ces partenaires, Google pourrait faire en sorte de devenir le choix de facto pour l’Assistant à l’Agent.</span></p>
<p><span style="font-weight: 400;">L’inconvénient, par contre, est que les entreprises dépendent entièrement de la motivation et de la capacité des fournisseurs des plateformes de centres de contact à rendre CCAI disponible à leur clientèle. Il pourrait donc s&rsquo;écouler beaucoup de temps avant que nombre d’entreprises ne puissent tirer parti de CCAI et, lorsque ça sera possible, ça pourrait demander des mises à niveau très coûteuses de leur infrastructure de centre de contact. Pour cette raison, les clients pourraient finir par se rabattre sur les solutions alternatives qui deviendront inévitablement disponibles.</span></p>
<p><span style="font-weight: 400;">Cela m&rsquo;amène aux cas d&rsquo;utilisation d&rsquo;Agent Assist. Passemard a mentionné que la fonctionnalité de proposer des documents pertinents aux agents en fonction de la conversation n&rsquo;a pas été jugée très utile par les clients. Les agents ne veulent pas lire des documents complets pour trouver la réponse aux questions des clients. Ils veulent une recherche extractive, qui peut extraire automatiquement la partie pertinente du document. Et, d’après ce qu’on a compris, cette fonctionnalité arrivera bientôt. Mais ce qui décolle vraiment en ce moment selon Passemard, c&rsquo;est la capacité de remplir automatiquement des formulaires en temps réel avec les informations mentionnées par l&rsquo;appelant. Et, bien sûr, un autre avantage de l’Assistant à l’Agent est d&rsquo;obtenir une transcription de chaque appel.</span></p>
<h2><span style="font-weight: 400;">L’Assistant à l’Agent pour le chat</span></h2>
<p><span style="font-weight: 400;">Passemard a indiqué que l’Assistant à l’Agent pour le chat améliore considérablement la productivité et la satisfaction des agents et les scores CSAT. En particulier, les fonctionnalités Smart Reply et Smart Compose sont fournies à l’aide de modèles prédictifs entraînés sur les données du client, ce qui les rend beaucoup plus précises. L’Assistant à l’Agent pour le chat n&rsquo;est actuellement disponible qu’à travers les fournisseurs de chat, mais une API publique sera bientôt disponible.</span></p>
<h2><span style="font-weight: 400;">Insights</span></h2>
<p><span style="font-weight: 400;">La dernière fonctionnalité CCAI mentionnée est Insights, qui est le nom que Google donne pour l’analytique des conversations (“speech analytics”). Insights est toujours en préversion, mais la bonne nouvelle est que ça sera bientôt accessible à tous avec une API publique. Insights consiste à comprendre les conversations qui se déroulent dans le centre de contact. En utilisant Insights, les entreprises pourront examiner les conversations, les indexer, les rechercher, faire de la modélisation de sujets et de l&rsquo;analyse des sentiments, naviguer dans une conversation et effectuer des recherches en langue naturelle (par exemple, « donnez-moi toutes les conversations avec un message d&rsquo;accueil » ). Google offrira une intégration SIPREC.</span></p>
<h2><span style="font-weight: 400;">Notes finales</span></h2>
<p><span style="font-weight: 400;">Passemard a mentionné que l&rsquo;IA conversationnelle est probablement la première application de l&rsquo;IA à avoir un impact profond sur les consommateurs. C’est une affirmation intrigante; il serait intéressant de voir quelques données qui soutiennent ses propos. Il conclut également en insistant sur l’importance d&rsquo;un bon architecte conversationnel. Nous ne pourrions être plus en accord avec lui. Ce n’est certainement pas une expertise qui peut s’apprendre en deux semaines. Les très bons ont des années d&rsquo;expérience et sont essentiels à la réussite de tout projet conversationnel.</span></div>
			</div>
			</div>			
				
				
				
				
			</div>		
				
				
			</div><p>The post <a href="https://www.nuecho.com/fr/retour-sur-lentrevue-live-sur-google-ccai-de-vux-world-avec-antony-passemard/">Retour sur l’entrevue live sur Google CCAI de VUX World avec Antony Passemard</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p><p>The post <a href="https://www.nuecho.com/fr/retour-sur-lentrevue-live-sur-google-ccai-de-vux-world-avec-antony-passemard/">Retour sur l’entrevue live sur Google CCAI de VUX World avec Antony Passemard</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Mandat: Possible &#8211; L’application conversationnelle</title>
		<link>https://www.nuecho.com/fr/mandat-possible-lapplication-conversationnelle/#utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=mandat-possible-lapplication-conversationnelle</link>
		
		<dc:creator><![CDATA[Guillaume Voisine]]></dc:creator>
		<pubDate>Thu, 15 Oct 2020 14:05:44 +0000</pubDate>
				<category><![CDATA[Blogue]]></category>
		<guid isPermaLink="false">https://zux.zsm.mybluehost.me/majoctobre2019/mandat-possible-lapplication-conversationnelle/</guid>

					<description><![CDATA[<p>The post <a href="https://www.nuecho.com/fr/mandat-possible-lapplication-conversationnelle/">Mandat: Possible &#8211; L’application conversationnelle</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="et_pb_section et_pb_section_2 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_2">
								<div class="et_pb_column et_pb_column_4_4 et_pb_column_2  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_text et_pb_text_2  et_pb_text_align_left et_pb_bg_layout_light">
				
				
				
				
				<div class="et_pb_text_inner"><p><span style="">Mon meeting Zoom est interrompu par la sonnette, qui résonne quatre fois.</span></p>
<p><span style="">Je reconnais le signal: je viens de recevoir un nouveau mandat.</span></p>
<p><span style="">Je m’excuse auprès des autres agents, quitte la session et cours vers la porte d’entrée.</span></p>
<p><span style="">Comme je m’y attendais, il n’y a personne, mais je remarque un petit colis à mes pieds. Je le ramasse et retourne à l’intérieur. L’enveloppe n’a pas de timbre, pas d’adresse, pas de nom. Rien.</span></p>
<p><span style="">Je reviens au canapé, seulement pour trouver Rusty confortablement installé à l’endroit précis où j’étais il y a un instant. </span></p>
<p><span style="">«Miaou», fait-il. Traduction: «C’est ma place maintenant, humain. Et je ne bougerai pas.»</span></p>
<p><span style="">D’accord, d’accord&#8230; Je m’assois à côté de lui et ouvre le paquet. Sans grande surprise, j’y trouve un magnétophone portable. Très vintage, comme d’habitude. Une voix familière remplit l’air de mon salon lorsque j’appuie sur Play:</span></p>
<p><span style="">«Bonjour, Monsieur Gestionnaire de Projet.»</span></p>
<p><span style="">Je rigole doucement. Encore ce ton officiel, après toutes ces années?</span></p>
<p><span style="">«Votre mandat, si toutefois vous l’acceptez, est de fournir une application conversationnelle pour La Compagnie, qui souhaite améliorer son expérience client (CX) en automatisant ses services client. L’application devra pouvoir fournir des réponses personnalisées aux questions qui lui seront adressées, mais également exécuter des actions en fonction des demandes des utilisateurs. Elle devrait aussi permettre aux agents de prendre le relais afin de résoudre rapidement les conversations problématiques.»</span></p>
<p><span style="">Ça semble intéressant, tout ça. Évidemment, j’aurai besoin de plus d’informations avant de pouvoir commencer la planification, mais je peux déjà réfléchir à ce à quoi ressemblerait l’équipe parfaite pour ce projet.</span></p>
<p><span style="">«Les exigences initiales vous seront transmises sous peu. Je suis certain que vous opérerez au mieux de vos capacités lors de l’exécution de ce projet.»</span></p>
<p><span style="">Rusty, allongé sur le côté, étire ses jambes et ferme les yeux. «Ne t’inquiète pas, copain. Ton mandat, c’est de dormir.» Je le gratte entre les oreilles, et le chat ronronne son approbation.</span></p>
<p><span style="">«Cet appareil s’autodétruira dans dix secondes. Bonne chance.»</span></p>
<p><span style="">Oh non, pas ça encore! Je me précipite dans ma cour arrière, vise la poubelle et lance le magnétophone juste avant qu’il ne commence à se consumer. C’était moins une. La dernière fois, je n’ai pas été aussi chanceux, et ma maison a empesté le plastique brûlé pendant presque une semaine.</span></p>
<p><span style="">De retour sur le canapé. Je m’assois de nouveau à côté de Rusty, qui me lance un regard indigné. Sa queue fouette l’air alors que j’ouvre mon classeur spécial contenant les portraits de tous les agents à ma disposition.</span></p>
<p><span style="">Je parcours les photos, à la recherche d’une en particulier. J’ai besoin d’un excellent communicateur, comme&#8230; Le voilà, l’agent Analyste d’Affaires, pour faire le pont entre le client et l’équipe. Son sens aigu de l’observation lui sera très utile, car il devra comprendre les besoins et les règles d’affaires du client. Il rassemblera les exigences du client et l’aidera à les définir, les spécifier et les hiérarchiser afin de déterminer la solution qui lui convient le mieux.</span></p>
<p><span style="">Tout au long du projet, il mettra à profit sa compréhension de la technologie et de ses utilisations potentielles pour travailler avec le client et l’équipe technique afin de s’assurer que les exigences soient satisfaites et que l’application fonctionne telle que définie.</span></p>
<p><span style="">La photo suivante représente l’agente Architecte de Solutions. Oui, sa capacité à avoir une perspective technique globale sur le projet nous sera particulièrement utile. Sa profonde connaissance des technologies de pointe pertinentes l’aidera à conseiller le client ainsi que l’équipe technique sur les meilleurs choix technologiques à prendre afin de répondre aux exigences et se conformer aux contraintes du projet. Elle veillera à ce que toutes les différentes pièces de la solution soient considérées et bien intégrées les unes aux autres dans un ensemble aussi robuste qu’efficace.</span></p>
<p><span style="">Quelqu’un devra définir et concevoir la conversation entre l’utilisateur final et le système. Cette personne doit également être un excellent communicateur, capable d’interagir avec toutes les parties prenantes ainsi que les membres de l’équipe technique. Je me tourne vers Rusty, qui a déjà l’air un peu moins irrité. «Qu’est-ce que t’en penses, toi?» Il bâille. Merci pour l’aide, l’ami. Tu as parfaitement raison: l’agent Concepteur d’Expérience Utilisateur Conversationnelle (c’est un peu long; nous l’appelons Concepteur CUX, pour faire court) est le candidat idéal. Il sera responsable de l’expérience utilisateur et de la conception de l’interface utilisateur, à la fois pour le texte et la voix. Sa tâche consistera à traduire en cas d’utilisation les exigences commerciales et fonctionnelles. Il pourra ensuite rédiger la conception fonctionnelle détaillée, les flux de dialogue spécifiques, ainsi que les messages de l’application, qu’il devra valider avec le client et les utilisateurs finaux. Il incombera à l’agent Concepteur CUX de s’assurer que les conceptions répondent aux exigences du client tout en tenant compte des limitations techniques, y compris celles imposées par les outils de reconnaissance automatique de la parole (ASR) et de compréhension du langage naturel (NLU).</span></p>
<p><span style="">Il est très important de s’assurer que l’application comprenne bien ce que dit l’utilisateur et interprète correctement ce qu’il veut dire. Après tout, pour qu’une interface conversationnelle soit efficace, il est essentiel que les dires de l’utilisateur soient bien compris et qu’ils soient interprétés avec précision, à la fois globalement et en contexte. J’arrive à la fin du classeur, recommence depuis le début. Où est-elle? Ah, voilà! L’agente Spécialiste NLU. Elle travaillera en étroite collaboration avec l’agent Concepteur CUX, car ils représentent les deux faces d’une même médaille: il doit y avoir une cohésion parfaite entre le dialogue et le NLU pour que la conversation soit réussie. Pour les applications vocales, elle sera responsable de la configuration et du réglage de l’ASR.</span></p>
<p><span style="">Une fois la solution déployée et utilisée par des personnes réelles, l’agente Spécialiste NLU continuera à jouer un rôle essentiel dans la mise au point et l’amélioration de l’application dans sa capacité à comprendre ce que veut dire l’utilisateur.</span></p>
<p><span style="">Une partie de l’équipe devra matérialiser les exigences et les conceptions en une application réelle qui pourra être rendue accessible aux utilisateurs finaux. La quantité de travail que cela représente est beaucoup trop grande pour une seule personne. Je résiste à l’envie de demander à nouveau de l’aide à Rusty, qui s’endort doucement contre ma cuisse. Bon, alors: je vais mettre&#8230; l’agente Développeuse Logiciel, l’agent Software Developer, l’agent Ohjelmistokehittäjä et l’agente Softwareentwickler sur cette tâche. Ce sont eux qui mettront en œuvre le dialogue, créeront les accès aux systèmes backend du client (ce qui est crucial si nous voulons fournir des réponses personnalisées et interagir avec le système au nom de l’utilisateur), rédigeront les tests unitaires et adapteront les outils existants, comme des widgets de clavardage, pour tous les besoins particuliers du projet. Sans développeurs, une application conversationnelle n’est rien de plus qu’un concept. Les développeurs expérimentés peuvent également fournir des commentaires utiles aux concepteurs et ainsi contribuer à la réussite du projet.</span></p>
<p><span style="">Pour que toutes les pièces de l’application fonctionnent ensemble, j’ai besoin de, voyons voir… Oui: l’agent Intégrateur. Son large éventail de compétences, qui couvre à la fois le domaine du logiciel ainsi que la résolution de problèmes, sera déterminant pour fournir une solution fonctionnelle adaptée aux besoins du client. Son approche généraliste l’aidera à effectuer tous les diagnostics d’anomalie qui sont inévitablement nécessaires lors de l’intégration de projets complexes.</span></p>
<p><span style="">Rusty ronfle à côté de moi, plongé dans ses rêves de chat. Pour mener à bien ce projet, j’aurai besoin de l’aide précieuse de la brigade des Spécialistes de l’Assurance Qualité (QA). Ils joueront un rôle essentiel pour s’assurer que l’application déployée est entièrement conforme aux spécifications détaillées et répond à toutes les exigences. La brigade interagira avec les concepteurs et les développeurs, mais aussi avec le client, offrant leur soutien lors de la phase des tests d’acceptation. Ils seront responsables des plans de test et de la définition de tous les cas de test détaillés, qu’ils soient manuels ou automatisés (ces derniers sont indispensables dans le cadre d’une intégration continue et d’une livraison continue (CI / CD)). La qualité de la solution dépend beaucoup du dévouement et du professionnalisme des Spécialistes QA, car ce sont eux qui donnent le feu vert final pour le déploiement.</span></p>
<p><span style="">Oui, je crois que c’est bon. Il est temps de démarrer ce projet. Mais d’abord, une petite tasse de thé, ce serait super. En me levant, je remarque un épais nuage de fumée qui s’élève depuis ma poubelle, dans la cour. Je soupire tout bas, pour éviter de réveiller Rusty. Le thé devra attendre. Je dois d’abord m’occuper de ce magnétophone autodestructeur (ou simplement destructeur, en fait).</span></p>
<p><span style="">Pourquoi ne pas faire comme tout le monde et simplement envoyer des courriels?</span></p>
<p>&nbsp;</p>
<p><span style=""><em>Merci à mes collègues Linda Thibault et Karine Déry</em></span></p></div>
			</div>
			</div>			
				
				
				
				
			</div>		
				
				
			</div><p>The post <a href="https://www.nuecho.com/fr/mandat-possible-lapplication-conversationnelle/">Mandat: Possible – L’application conversationnelle</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p><p>The post <a href="https://www.nuecho.com/fr/mandat-possible-lapplication-conversationnelle/">Mandat: Possible &#8211; L’application conversationnelle</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Chloé: L’évolution, ou Développer un agent conversationnel pour la Covid-19 avec Rasa &#8211; Épisode 2</title>
		<link>https://www.nuecho.com/fr/chloe-levolution-ou-developper-un-agent-conversationnel-pour-la-covid-19-avec-rasa-episode-2/#utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=chloe-levolution-ou-developper-un-agent-conversationnel-pour-la-covid-19-avec-rasa-episode-2</link>
		
		<dc:creator><![CDATA[Karine Dery]]></dc:creator>
		<pubDate>Thu, 10 Sep 2020 14:46:16 +0000</pubDate>
				<category><![CDATA[Blogue]]></category>
		<guid isPermaLink="false">https://zux.zsm.mybluehost.me/majoctobre2019/chloe-levolution-ou-developper-un-chatbot-pour-la-covid-19-avec-rasa-episode-2/</guid>

					<description><![CDATA[<p>The post <a href="https://www.nuecho.com/fr/chloe-levolution-ou-developper-un-agent-conversationnel-pour-la-covid-19-avec-rasa-episode-2/">Chloé: L’évolution, ou Développer un agent conversationnel pour la Covid-19 avec Rasa &#8211; Épisode 2</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="et_pb_section et_pb_section_3 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_3">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_3  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_text et_pb_text_3  et_pb_text_align_left et_pb_bg_layout_light">
				
				
				
				
				<div class="et_pb_text_inner"><h2>Retour sur l’épisode 1: TALN et gestion d’erreurs</h2>
<p><img decoding="async" class="wp-image-6934 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2020/09/avertissement.jpeg" alt="" width="1925" height="258" srcset="https://www.nuecho.com/wp-content/uploads/2020/09/avertissement.jpeg 1925w, https://www.nuecho.com/wp-content/uploads/2020/09/avertissement-1280x172.jpeg 1280w, https://www.nuecho.com/wp-content/uploads/2020/09/avertissement-980x131.jpeg 980w, https://www.nuecho.com/wp-content/uploads/2020/09/avertissement-480x64.jpeg 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) and (max-width: 980px) 980px, (min-width: 981px) and (max-width: 1280px) 1280px, (min-width: 1281px) 1925px, 100vw" /></p>
<h3>Flashback &#8211; Scène 4: Répondre à des questions et suivre TED</h3>
<p>Comme je l’ai mentionné dans la première partie, l’objectif du module de question-réponse (Q&amp;R) était de permettre à l’utilisatrice² de poser une question au sujet de la Covid-19, pour laquelle nous afficherions la réponse retournée par l’API du modèle du Mila. Il y a eu plusieurs versions de cette portion de l’application, allant de très basique à plutôt complexe, et celle-ci a été incorporée à un nombre de plus en plus grand d’endroits dans le dialogue.</p>
<p>Dans la version initiale du flux de Q&amp;R, l’utilisatrice devait choisir l’option “J’ai des questions” du menu principal ou après une évaluation, après quoi l’application recueillait sa question. Nous avons prévu quatre résultats possibles provenant de l’appel à l’API (le quatrième n’était toujours pas disponible au moment où notre participation au projet a pris fin):</p>
<ul>
<li>Échec: l’appel à l’API a échoué</li>
<li>Succès: l’appel à l’API a réussi et le modèle a fourni une réponse</li>
<li>Hors distribution: l’appel à l’API a réussi mais n’a fourni aucune réponse</li>
<li>Requiert une évaluation: l’appel à l’API a réussi mais l’utilisatrice devrait évaluer ses symptômes pour obtenir une réponse à sa question</li>
</ul>
<p>Si le résultat était un succès, Chloé posait une question supplémentaire afin de savoir si la réponse avait été utile (<a href="https://github.com/botfront/rasa-webchat" target="_blank" rel="noopener">l’interface de clavardage</a> que nous devions utiliser ne fournissait pas de boutons de type “j’aime/je n’aime pas” (thumbs-up/thumbs-down) qui nous auraient permis de facilement sauter cette interaction). Si le résultat était hors distribution, alors on demandait à l’utilisatrice de reformuler sa question.</p>
<p>Recueillir la question, la reformulation de celle-ci et la rétroaction sur l’utilité de la réponse pouvaient tous être inclus dans un <em>formulaire</em>; cependant, l’implémentation des transitions vers les autres portions du dialogue était moins claire. Il y avait 6 transitions différentes à partir du flux de Q&amp;R selon le résultat et la présence de la case “self_assess_done” décrite précédemment. Nous avons vaguement considéré la possibilité de demander à l’usager ce qu’il voulait faire ensuite à l’intérieur du <em>formulaire</em>, afin de centraliser la logique du flux de Q&amp;R, mais cette idée a été mise de côté puisque nous n’avons pas trouvé de façon élégante d’implémenter cela. Pour cette raison, nous avons finalement eu recours aux <em>histoires</em> et à la politique TED pour prédire les transitions déterministes.</p>
<p>Nous étions aussi confrontés au problème découlant du fait que certaines de ces transitions étaient des questions de type “affirm/deny” (autrement dit une intention booléenne), “affirm” menant soit vers une évaluation ou vers une autre question. À ce point, nos <em>histoires</em> d’évaluation de base démarraient directement avec une intention “get_assessment” comme raccourci pour la mémoïsation, et démarrer une <em>histoire</em> avec “get_assessment OR affirm” aurait évidemment généré des correspondances indésirables. Nous avons remis cet enjeu à plus tard avec une solution qui fonctionnait seulement parce que nous contrôlions les réponses des utilisateurs par le biais de boutons. Comme ceci:</p>
<p><em>Un raccourci d’intentions avec des boutons </em></p>
<p><img decoding="async" class="aligncenter wp-image-7029 size-full" src="https://www.nuecho.com/wp-content/uploads/2020/09/1-1.bmp" alt="" width="467" height="173" srcset="https://www.nuecho.com/wp-content/uploads/2020/09/1-1.bmp 467w, https://www.nuecho.com/wp-content/uploads/2020/09/1-1-300x111.bmp 300w, https://www.nuecho.com/wp-content/uploads/2020/09/1-1-20x7.bmp 20w" sizes="(max-width: 467px) 100vw, 467px" /></p>
<p>Ainsi, nous n’avions pas besoin d’ajouter des histoires du module de question-réponse suivi d’une évaluation, mais avec le recul, nous aurions dû le faire d’entrée de jeu, puisque l’ajout d’histoires d’évaluations suivies de Q&amp;R fonctionnait (somme toute) bien, et nous avons dû le faire de toute façon lors de l’ajout du TALN.</p>
<h3>Scène 5.25: Détours de l’inscription au suivi quotidien</h3>
<p>Le design du flux d’inscription au suivi quotidien a été approfondi pour y inclure certains cas d’exceptions. Cela était nécessaire puisque le numéro de téléphone et le code de validation étaient recueillis auprès de l’utilisatrice directement sous forme de texte. Voici les cas plus problématiques que nous avons traités:</p>
<ul>
<li>Le numéro de téléphone n’est pas valide</li>
<li>L’utilisatrice dit qu’elle n’a pas de numéro de téléphone</li>
<li>Elle veut annuler l’inscription parce qu’elle ne veut pas fournir son numéro</li>
<li>Le code de validation est invalide</li>
<li>L’utilisatrice n’a pas reçu de code de validation et veut en recevoir un nouveau</li>
<li>Elle n’a pas reçu de code de validation et désire changer de numéro de téléphone</li>
</ul>
<p>Certains de ces cas se trouvent à mi-chemin entre une digression et de la gestion d’erreur, et nous avons pensé les implémenter comme des digressions “contrôlées”, de la même façon que nous l’avions fait pour l’explication des antécédents médicaux, qui va comme suit:</p>
<p><img decoding="async" class="aligncenter wp-image-7060 size-full" src="https://www.nuecho.com/wp-content/uploads/2020/09/digression-fr.gif" alt="" width="600" height="666" /></p>
<p>Mais puisque la plupart impliquaient le recours à des compteurs et messages d’erreurs de même qu’à d’autres éléments plus complexes, nous avons décidé de gérer tous ces cas à l’intérieur de <em>formulaires</em> plutôt que de distribuer la logique entre <em>formulaires</em>, <em>histoires</em> et correspondances (<em>mappings</em>) d’intentions. Cela a présenté des inconvénients (au-delà des centaines de lignes de code supplémentaires): une partie de la logique s’échelonnait sur plusieurs interactions et nous avons dû ajouter plusieurs cases pour disposer de compteurs et de drapeaux³ pour en suivre la progression (notre version finale du <em>formulaire</em> utilise une dizaine de telles cases).</p>
<h3>Flashback &#8211; 5.75: Pause &#8211; TED a besoin d’un cours d’appoint</h3>
<p>Après quelques essais, il a été porté à notre attention qu’il était possible pour une utilisatrice de se retrouver coincée dans une boucle infinie dans le Q&amp;R puisque la seule option offerte était de reformuler la question. Le design a été modifié afin de permettre à l’utilisatrice de soit réessayer, soit sortir du Q&amp;R, et nous avons ajouté 2 transitions pour ce cas.</p>
<p>En ajoutant ces transitions, nous avons frappé un petit noeud: la <a href="https://rasa.com/docs/rasa/core/policies/#ted-policy" target="_blank" rel="noopener">politique TED</a> n’apprenait pas le bon comportement après le Q&amp;R; elle confondait les impacts des cases “question_answering_status” et “symptoms”. La redistribution équilibrée dans nos <em>histoires</em> des exemples de Q&amp;R entre les évaluations sans symptômes, avec symptômes légers ou modérés, a représenté un travail de moine, mais cela a fonctionné. Au final, la <em>politique</em> prédisait le bon comportement pour les conversations qui n’étaient pas représentées dans nos histoires.</p>
<h3>Scène 6: L’implémentation de la recherche de cliniques de dépistage sur le pilote automatique</h3>
<p>La recherche de cliniques de dépistage, après avoir eu maille à partir avec les transitions du Q&amp;R et la gestion d’erreurs de l’inscription au suivi quotidien, n’a présenté aucun nouveau défi. Le dialogue comprenait trois étapes principales:</p>
<ol>
<li>Expliquer le fonctionnement et demander à l’utilisatrice si elle veut poursuivre</li>
<li>Si oui, collecter son code postal et en valider le format et l’existence, en annulant la tâche après trop d’erreurs</li>
<li>Afficher les résultats ou offrir un autre essai s’il n’y en avait aucun.</li>
</ol>
<p>Suivant la logique de nos implémentations précédentes, nous avons utilisé un <em>formulaire</em> pour le code postal et la gestion d’erreurs, les appels à l’API et pour offrir le deuxième essai; et des histoires pour afficher les explications et gérer les transitions vers les autres flux de dialogue. Les transitions, encore une fois, variaient en fonction du résultat de l’appel à l’API et de la valeur de la case “self_assess_done”.</p>
<h3>Scène 7: Explorer les chemins sinueux du TALN</h3>
<p>Après être passés à travers l’implémentation de toutes les fonctionnalités en mode boutons-seulement-sans-gestion-d’erreur, nous avons pu commencer à explorer l’intégration du TALN et à nous attaquer aux entrées imprévues. Nous avons commencé nos essais par la toute première question au menu principal. Toute réponse n’étant pas reconnue comme l’une des options serait envoyée à l’API du Q&amp;R; cependant, puisque le TALN n’est pas contextuel dans Rasa, et étant donné que nous nous attendions à une grande variété de questions pour le Q&amp;R, “toute réponse” pouvait être n’importe quelle intention, avec n’importe quel score. “Comment gérer toutes ces intentions?” n’était pas une question aussi anodine qu’elle puisse paraître.</p>
<h4>Option 1: Ajouter des exemples aux histoires</h4>
<p>La manière évidente de procéder était d’ajouter des <em>histoires</em> avec des intentions non supportées et le comportement d’erreur voulu (c’est-à-dire envoyer le texte au formulaire de Q&amp;R), mais de combien d’exemples aurions-nous besoin? La <em>politique</em> TED n’allait vraisemblablement pas pouvoir apprendre que le comportement des exemples était le comportement par défaut à utiliser aussi pour toute intention exclue des exemples. De plus, utiliser des OR pour inclure toutes les intentions non supportées aurait multiplié la durée de l’entraînement des modèles de façon exponentielle dès que nous aurions appliqué cette approche aux autres cas d’utilisation. Cette avenue était un cul-de-sac.</p>
<h4>Option 2: Action de repli</h4>
<p>En excluant complètement les intentions non supportées de nos <em>histoires</em>, la <em>politique</em> TED prédisait quand même quelque chose, mais nous pouvions espérer que le score de confiance soit bas et utiliser un seuil pour déclencher une action de repli (<a href="https://rasa.com/docs/rasa/core/fallback-actions/#id1" target="_blank" rel="noopener">fallback action</a>). Cette action remplacerait l’intention retournée par une intention “fallback” et nous pourrions gérer celle-ci dans nos <em>histoires</em>. Or, les comportements attendus n’avaient pas de très bons scores, certains n’étant pas beaucoup mieux que ce qu’une intention “affirm” mal placée pouvait obtenir, puisqu’elle était dans plusieurs <em>histoires</em>. En conséquence, nous n’avons pas voulu dépendre d’un seuil de confiance pour déclencher l’action de repli.</p>
<h4>La solution: La politique d’intention non supportée</h4>
<p>Nous avons finalement récupéré l’idée de l’intention “fallback”, mais à l’aide d’une <em>politique</em> déterministe. La <em>politique</em> prédisait l’action qui remplaçait l’intention reconnue par une intention “fallback” si la conversation respectait deux conditions: la dernière action pertinente avant l’entrée de l’utilisatrice était la question du menu principal, et l’intention reconnue n’était pas dans la liste des intentions supportées. Des <em>histoires</em> et la <em>politique</em> de mémoïsation ont été utilisées pour déclencher le formulaire de Q&amp;R et gérer les transitions particulières par la suite (l’échec de l’appel à l’API ainsi que le résultat hors distribution au menu principal étaient suivis d’un message d’erreur au lieu des messages habituels):</p>
<p><em>Utilisation du message déclencheur dans le formulaire de Q&amp;R<br />
</em></p>
<p><img decoding="async" class="aligncenter wp-image-7033 size-full" src="https://www.nuecho.com/wp-content/uploads/2020/09/3-1.bmp" alt="" width="571" height="446" srcset="https://www.nuecho.com/wp-content/uploads/2020/09/3-1.bmp 571w, https://www.nuecho.com/wp-content/uploads/2020/09/3-1-300x234.bmp 300w, https://www.nuecho.com/wp-content/uploads/2020/09/3-1-480x375.bmp 480w, https://www.nuecho.com/wp-content/uploads/2020/09/3-1-20x16.bmp 20w" sizes="(max-width: 571px) 100vw, 571px" /></p>
<h3>Scène 8: Explorations supplémentaires</h3>
<p>Dans un deuxième temps, nous avons ajouté le TALN dans les questions oui-non qui, selon le design, déclenchaient simplement, en cas d’erreur, une question reformulée avec des boutons et sans champ texte. La majorité d’entre elles étaient dans des <em>formulaires</em>, certaines avec des exceptions à la convention de message “utter_ask_{nom_de_la_case}”. Les exceptions s’appliquaient également aux messages d’erreurs, ce qui fait qu’une approche générique ne couvrant même pas tous les cas semblait trop complexe pour les bénéfices envisagés. Nous avons laissé cette idée de côté. Il semblait plus simple et plus rapide de simplement tout gérer dans des <em>formulaires</em>, comme ceci:</p>
<p><img decoding="async" class="aligncenter wp-image-7035 size-full" src="https://www.nuecho.com/wp-content/uploads/2020/09/4.bmp" alt="" width="576" height="633" srcset="https://www.nuecho.com/wp-content/uploads/2020/09/4.bmp 576w, https://www.nuecho.com/wp-content/uploads/2020/09/4-273x300.bmp 273w, https://www.nuecho.com/wp-content/uploads/2020/09/4-480x528.bmp 480w, https://www.nuecho.com/wp-content/uploads/2020/09/4-18x20.bmp 18w" sizes="(max-width: 576px) 100vw, 576px" /></p>
<p>Intermission: Laisser le fantôme de la rétroaction loin derrière</p>
<p>En ajoutant du TALN, et par le fait même de la flexibilité, nous nous sommes rappelé de l’interaction de rétroaction obligatoire et laborieuse qui nous hantait toujours, et avons décidé de la rendre plus flexible aussi. Nous n’avions toujours pas de “widget” pour la rétroaction ni le temps d’en implémenter un, donc nous avons conservé la question, mais adapté la réaction: si l’utilisatrice répondait quoi que ce soit d’autre que oui ou non, la réponse serait traitée comme s’il s’agissait de la réponse à la prochaine question, qui elle se trouvait à offrir de poser une autre question et pouvait mener aux autres fonctionnalités. Il a fallu quelques contorsions afin de sortir du <em>formulaire </em>de manière préventive et de “reproduire” l’entrée de l’utilisatrice:</p>
<p><img decoding="async" class="aligncenter wp-image-7037 size-full" src="https://www.nuecho.com/wp-content/uploads/2020/09/5.bmp" alt="" width="576" height="682" srcset="https://www.nuecho.com/wp-content/uploads/2020/09/5.bmp 576w, https://www.nuecho.com/wp-content/uploads/2020/09/5-253x300.bmp 253w, https://www.nuecho.com/wp-content/uploads/2020/09/5-480x568.bmp 480w, https://www.nuecho.com/wp-content/uploads/2020/09/5-17x20.bmp 17w" sizes="(max-width: 576px) 100vw, 576px" /></p>
<h3>Scène 9: Sprint final pour l’ajout du TALN</h3>
<p>Puisque nous avions déjà la <em>politique</em> pour remplacer des intentions par “fallback”, la gestion d’erreurs en dehors des formulaires consistait essentiellement en l’ajout d’entrées au dictionnaire des dernières intentions supportées par des actions, ainsi que l’ajout d’histoires pour réagir à l’intention “fallback”, soit en entrant dans le formulaire Q&amp;R ou en affichant un message d’erreur en fonction du design. À l’intérieur des formulaires, nous avons appliqué la même approche que pour les questions oui-non. Nous avons dû faire quelques changements collatéraux, comme l’ajout d’une entité pour la province ou l’ajout d’histoires (principalement sous forme de OR) pour gérer les transitions là où “affirm” ou “deny” étaient valides (maintenant que le raccourci via les boutons n’était plus disponible). Nous avons aussi dû revenir en arrière et modifier notre façon élégante de gérer la digression des antécédents médicaux puisque la solution simple utilisant la politique de correspondance (<a href="https://rasa.com/docs/rasa/core/policies/#mapping-policy" target="_blank" rel="noopener">mapping policy</a>) ne pouvait pas s’appliquer à la gestion d’erreurs. Nous avons donc décidé de gérer cette digression dans un <em>formulaire</em> comme les autres.</p>
<p style="text-align: center;"><strong>Fin</strong></p>
<p>Avec le recul, bien que nous ayons ajouté le TALN, nous avons l’impression d’avoir pris plusieurs raccourcis et approches plus-ou-moins-rasa-esques. Notre cas d’utilisation, qui était entièrement prévisible, sans navigation aléatoire mais rempli d’exceptions et de petites variations, ne correspondait pas à un cas d’utilisation typique pour Rasa. Nous avons frappé plusieurs obstacles qui surgissent naturellement lorsqu’on essaie d’implémenter un design de type diagramme de processus avec Rasa. Néanmoins, Rasa offre beaucoup de flexibilité par l’intermédiaire de code et d’ajouts possibles, et au final, nous avons souvent choisi d’utiliser du code pour représenter des patrons de dialogue car lorsque le temps est compté, le chemin qui nous est familier est le façon la plus sûre de se rendre à bon port.</p>
<p>Dans un futur épisode, nous irons plus loin dans l’exploration des différentes façons d’implémenter deux des principales fonctionnalités des designs de type diagramme de processus, soit les arbres de décision et les dialogues modulaires. Ces derniers sont difficiles à implémenter avec Rasa et nous allons explorer les différentes méthodes pour ce faire. Nous allons également évaluer si et comment Rasa 2.0, toujours au stade alpha au moment d’écrire ces lignes, pourra nous faciliter la tâche.</p>
<p><span style="font-weight: 400;"> ¹Je rappelle que nous avons librement choisi de traduire les concepts les plus importants comme suit: </span><i><span style="font-weight: 400;">story </span></i><span style="font-weight: 400;">=&gt; histoire, </span><i><span style="font-weight: 400;">form</span></i><span style="font-weight: 400;">=&gt; formulaire, </span><i><span style="font-weight: 400;">policy</span></i><span style="font-weight: 400;">=&gt; politique, </span><i><span style="font-weight: 400;">slot </span></i><span style="font-weight: 400;">=&gt; case, </span><i><span style="font-weight: 400;">featurized </span></i><span style="font-weight: 400;">=&gt; caractérisée. Ces choix n’engagent que nous.</span></p>
<p><span style="font-weight: 400;"> ²Le féminin est employé simplement pour alléger le texte</span></p>
<p><span style="font-weight: 400;"> ³Oui, </span><i><span style="font-weight: 400;">flag </span></i><span style="font-weight: 400;">dans ce contexte c&rsquo;est bien un </span><i><span style="font-weight: 400;">drapeau</span></i><span style="font-weight: 400;">, voir </span><a href="http://gdt.oqlf.gouv.qc.ca/index.aspx" target="_blank" rel="noopener"><span style="font-weight: 400;">Le grand dictionnaire terminologique</span></a><span style="font-weight: 400;"> de l’OQLF</span></div>
			</div>
			</div>
				
				
				
				
			</div>
				
				
			</div><p>The post <a href="https://www.nuecho.com/fr/chloe-levolution-ou-developper-un-agent-conversationnel-pour-la-covid-19-avec-rasa-episode-2/">Chloé: L’évolution, ou Développer un agent conversationnel pour la Covid-19 avec Rasa – Épisode 2</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p><p>The post <a href="https://www.nuecho.com/fr/chloe-levolution-ou-developper-un-agent-conversationnel-pour-la-covid-19-avec-rasa-episode-2/">Chloé: L’évolution, ou Développer un agent conversationnel pour la Covid-19 avec Rasa &#8211; Épisode 2</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Chloé: L’évolution, ou Développer un agent conversationnel pour la Covid-19 avec Rasa</title>
		<link>https://www.nuecho.com/fr/chloe-levolution-ou-developper-un-agent-conversationnel-pour-la-covid-19-avec-rasa/#utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=chloe-levolution-ou-developper-un-agent-conversationnel-pour-la-covid-19-avec-rasa</link>
		
		<dc:creator><![CDATA[Karine Dery]]></dc:creator>
		<pubDate>Thu, 03 Sep 2020 20:26:06 +0000</pubDate>
				<category><![CDATA[Blogue]]></category>
		<category><![CDATA[agent conversationnel]]></category>
		<guid isPermaLink="false">https://zux.zsm.mybluehost.me/majoctobre2019/chloe-levolution-ou-developper-un-chatbot-pour-la-covid-19-avec-rasa/</guid>

					<description><![CDATA[<p>The post <a href="https://www.nuecho.com/fr/chloe-levolution-ou-developper-un-agent-conversationnel-pour-la-covid-19-avec-rasa/">Chloé: L’évolution, ou Développer un agent conversationnel pour la Covid-19 avec Rasa</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="et_pb_section et_pb_section_4 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_4">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_4  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_text et_pb_text_4  et_pb_text_align_left et_pb_bg_layout_light">
				
				
				
				
				<div class="et_pb_text_inner"><h2><span style="font-size: x-large; font-family: Abel; font-weight: normal;"><strong>​</strong></span>Contexte</h2>
<p>Au moment où les mesures de confinement ont été mises en place au Canada, nous avons été approchés par <a href="https://www.dialogue.co/fr/" target="_blank" rel="noopener">Dialogue</a>, une compagnie spécialisée en services de santé et télémédecine, pour les aider dans la migration de Chloé, leur agent conversationnel par règles pour la Covid-19, vers une solution plus conversationnelle en utilisant <a href="https://rasa.com/" target="_blank" rel="noopener">Rasa</a>. Nous avions aussi comme mandat d’y ajouter des fonctionnalités. Il s’agissait d’un projet itératif s’étalant sur 10 semaines, en mode agile.</p>
<p><span style="font-size: x-large;">Voici les principales fonctionnalités de Chloé, à haut niveau:</span></p>
<ul>
<li>Auto-évaluation: fournir des recommandations personnalisées en fonction des symptômes et en suivant les consignes des gouvernements fédéral et provinciaux</li>
<li>Questions-réponses (Q&amp;R): permettre à l’utilisatrice¹ de poser des questions au sujet de la Covid-19 en utilisant un <a href="https://github.com/dialoguemd/covidfaq" target="_blank" rel="noopener">modèle</a> développé par le <a href="https://mila.quebec/" target="_blank" rel="noopener">Mila</a>.</li>
<li>Suivi quotidien: aider les utilisateurs à suivre leurs symptômes au jour le jour. Lorsque l’utilisatrice s’inscrit au suivi quotidien, elle reçoit un lien par texto une fois par jour qui lui permet de joindre Chloé afin d’évaluer la progression de ses symptômes.</li>
<li>Recherche de cliniques de dépistage: à l’aide de son code postal, fournir à l’utilisatrice une liste de cliniques de dépistage près de chez elle grâce à l’<a href="https://clinia.com/en-ca/product/places/covid-places" target="_blank" rel="noopener">API de Clinia</a>.</li>
</ul>
<p>La conception de Chloé a été effectuée de manière itérative à mesure que nous ajoutions des fonctionnalités et a été ajustée pour tenir compte des commentaires de l’équipe médicale de Dialogue et des testeurs, évoluant constamment. L’implémentation suivait, pas très loin derrière. Il y a plusieurs façons de développer certains patrons de dialogue avec Rasa et compte tenu des modifications constantes au design, nos choix d’implémentation nous donnaient souvent l’impression d’errer dans un labyrinthe. Nous avons fini par en trouver la sortie, non sans avoir rebroussé chemin à quelques reprises pour éviter de frapper un mur ou de grimper une falaise. Étant donné que nous n’avions pas, d’entrée de jeu, une idée précise du design final, certains choix d’implémentation sont plus ou moins cohérents, et étant donné l’échéancier très serré, nous n’avons pas pu effectuer toute la refactorisation voulue. Cependant, ce contexte nous a aussi permis d’explorer des chemins que nous n’aurions pas parcourus avec Rasa si nous avions eu le temps de répertorier des patrons et de créer des composants génériques pour les réaliser.</p>
<p>Dans cet article et dans le prochain de cette courte série, je vais vous raconter l’histoire du développement de Chloé. Pour chaque étape de notre parcours, je vais décrire les principaux obstacles auxquels nous avons fait face ainsi que les décisions d’implémentation que nous avons prises, souvent dans le feu de l’action. Dans cette première partie, nous allons principalement nous attarder aux fonctionnalités d’auto-évaluation et de suivi quotidien.</p>
<h2></h2>
<h2>Épisode 1: Les dialogues d&rsquo;auto-évaluation</h2>
<p><img decoding="async" class="wp-image-6934 alignnone size-full" style="font-family: 'Roboto Slab', Georgia, 'Times New Roman', serif; font-size: 29px;" src="https://www.nuecho.com/wp-content/uploads/2020/09/avertissement.jpeg" alt="" width="1925" height="258" srcset="https://www.nuecho.com/wp-content/uploads/2020/09/avertissement.jpeg 1925w, https://www.nuecho.com/wp-content/uploads/2020/09/avertissement-1280x172.jpeg 1280w, https://www.nuecho.com/wp-content/uploads/2020/09/avertissement-980x131.jpeg 980w, https://www.nuecho.com/wp-content/uploads/2020/09/avertissement-480x64.jpeg 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) and (max-width: 980px) 980px, (min-width: 981px) and (max-width: 1280px) 1280px, (min-width: 1281px) 1925px, 100vw" /></p>
<h3></h3>
<h3>Scène 1: Sprint vers la première démo de l&rsquo;auto-évaluation</h3>
<p>Très tôt dans le projet (c’est-à-dire au 8e jour), on nous a demandé si nous pouvions démontrer un dialogue d’auto-évaluation à la fin de la journée. Lorsque nous avons reçu la demande, la version initiale du design mijotait encore dans la tête de notre conceptrice; nous avions un projet Rasa fonctionnel, mais aucun dialogue n’avait été implémenté. Quoi qu’il en soit, nous avons retroussé nos manches et avons produit cette démo.</p>
<p>La démo initiale était un arbre de décision simple permettant d’évaluer la gravité des symptômes de l’utilisatrice et de proposer des recommandations adéquates. Nous avons pris le chemin le plus court: pour chaque flux possible, nous avons défini une <em>histoire</em> (<a href="https://rasa.com/docs/rasa/core/stories/" target="_blank" rel="noopener">story</a>²) et avons utilisé la <em>politique</em> de <a href="https://rasa.com/docs/rasa/core/policies/#augmented-memoization-policy" target="_blank" rel="noopener">mémoïsation</a>.</p>
<h3></h3>
<h3>Scène 2: Le chemin devient boueux à mesure que les flux d’auto-évaluation se multiplient</h3>
<p><span style="font-size: x-large;">Le prochain ajout majeur aux flux de dialogue a été la distinction, à l’entrée de l’auto-évaluation, entre trois situations:</span></p>
<ul>
<li>L’utilisatrice pense être malade et veut évaluer ses symptômes (cas initial)</li>
<li>Elle a reçu un résultat positif au test de dépistage et veut évaluer ses symptômes et obtenir des conseils</li>
<li>Elle a effectué l’auto-évaluation précédemment et revient pour réévaluer ses symptômes</li>
</ul>
<p>Cette distinction a créé un certain nombre de variations au flux de base, comme par exemple demander si les symptômes ont empiré dans le cas d’une réévaluation, ou encore démarrer le dialogue en recommandant à la personne de s’isoler si elle a reçu un résultat positif.</p>
<p>Nous avons suivi le même chemin, ajoutant des <em>histoires</em> pour l’implémentation de ces deux nouveaux flux de dialogue. Nous commencions toutefois à constater que le nombre <em>d’histoires</em> augmentait rapidement pour ces trois situations seulement (dont la complexité allait continuer à augmenter), et que certaines portions semblables se répétaient entre les <em>histoires</em>.</p>
<p><em>Deux histoires semblables pour une personne ayant des symptômes légers³<br />
</em></p>
<p><a href="https://www.nuecho.com/wp-content/uploads/2020/09/2.bmp" target="_blank" rel="noopener"><img decoding="async" class="wp-image-6894 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2020/09/2.bmp" alt="" width="576" height="401" /></a></p>
<p>&nbsp;</p>
<p>Ne voyant pas de solution simple à ceci dans les <em>histoires</em> &#8211; les <a href="https://rasa.com/docs/rasa/core/stories/#checkpoints-and-or-statements" target="_blank" rel="noopener">checkpoints et les instructions de type OR</a> ne nous aidaient pas car les sections similaires étaient prises en sandwich entre les différentes <em>intentions</em> (intents) et les variations qu’elles créent &#8211; nous n’avons pas fait de changements significatifs à l’implémentation à ce moment-là.</p>
<p>Pendant que nous développions ces trois flux de dialogue, nous avons dû effectuer un ajout qui s’appliquait aux trois: après que l’utilisatrice ait indiqué ne pas avoir de symptômes sévères, Chloé doit obtenir sa province de résidence et son âge afin de lui fournir des recommandations plus précises. Cette fois, la solution la plus simple a été de recourir à l’utilisation d’un <em>formulaire</em> (<a href="https://rasa.com/docs/rasa/core/forms/" target="_blank" rel="noopener">form</a>): l’information doit être conservée et le formulaire est facilement réutilisable dans toutes nos <em>histoires</em>.</p>
<h3></h3>
<h3></h3>
<h3>Scène 3: Voie rapide vers l’inscription au suivi quotidien</h3>
<p><span style="font-size: 18px;"><span style="font-size: large;"><span style="font-size: x-large;">Passons à la prochaine fonctionnalité: nous avons ensuite ajouté l’inscription au suivi quotidien. Si l’utilisatrice a des symptômes, alors Chloé lui offre le suivi quotidien. Si elle accepte, Chloé collecte son nom et son numéro de téléphone, note si elle a des antécédents médicaux ou des problèmes de santé qui pourraient augmenter ses risques de complications, etc. Ce flux de dialogue était aussi sans contredit un <em>formulaire</em>. Dans la première version, plus simple, bien que nous utilisions du texte libre pour collecter le prénom et le numéro de téléphone, il n’y avait pas vraiment de gestion d’erreur: nous utilisions la totalité du texte entré pour le prénom et tous les chiffres entrés pour le numéro de téléphone, en vérifiant seulement s’il y avait 10 ou 11 chiffres, sans quoi le numéro était demandé de nouveau.</span></span><br />
</span></p>
<h3></h3>
<h3></h3>
<h3>Scène 4: Répondre à des questions et suivre TED</h3>
<p>La fonctionnalité de questions et réponses (Q&amp;R) doit permettre à l’utilisatrice de poser toute question qu’elle a au sujet de la Covid-19, envoyer cette question au module développé par le Mila, recevoir la réponse et l’afficher dans la conversation. Nous voulions rendre cette fonctionnalité disponible dans tous les flux de dialogue, en permettant d’y accéder par plusieurs endroits, mais aussi de poursuivre le dialogue dans diverses directions en fonction du résultat (je décrirai les différents types de résultat, de même que les détails de cette fonctionnalité et son évolution, dans la prochaine partie de cet article).</p>
<p>Puisque Chloé ne devait pas offrir d’auto-évaluation si celle-ci avait déjà été effectuée au cours de la conversation, les transitions suivant le Q&amp;R dépendaient également de cela, ce qui a eu pour effet de multiplier les voies de sortie. La politique de mémoïsation n’aurait pas suffi pour apprendre cette différence puisqu’il est possible de repasser dans le module de Q&amp;R à plusieurs reprises. Par conséquent, nous avons ajouté une <em>case caractérisée</em> (<a href="https://rasa.com/docs/rasa/core/slots/#slot-types" target="_blank" rel="noopener">featurized slot</a>) nommée <em>self_assess_done</em>, combinée avec les histoires d’auto-évaluation et de Q&amp;R, et nous nous avons eu recours à la <em>politique <a href="https://rasa.com/docs/rasa/core/policies/#ted-policy" target="_blank" rel="noopener">TED</a></em> pour apprendre à partir de quelques exemples. Cela a fonctionné, mais notre fichier <em>d’histoires</em> a soudainement beaucoup enflé.</p>
<p>&nbsp;</p>
<h3><span style="font-family: 'Roboto Slab', Georgia, 'Times New Roman', serif; font-size: 29px;">Intermission: Volte-face vers les formulaires pour éviter une jungle d’histoires</span></h3>
<p>Entrevoyant la multiplication et l’allongement à venir de nos <em>histoires</em>, nous avons décidé de transférer la partie commune des évaluations dans un <em>formulaire</em> avant d’intégrer complètement le Q&amp;R. Cela nous permettrait de raccourcir et de simplifier les <em>histoires</em>, mais également de faciliter la collecte d’informations sous forme de cases (présence de toux ou de fièvre, qui étaient deux questions récemment ajoutées, ainsi que la gravité des symptômes), ces dernières étant nécessaires si l’utilisatrice s’inscrivait au suivi quotidien. Un <em>formulaire</em> permettait, oui, de réduire la redondance, mais nous forçait aussi à utiliser un ensemble de cases intermédiaires jetables afin de poser la série de questions nécessaires pour déterminer la valeur d’une case unique correspondant à la gravité des symptômes. Cette case unique était caractérisée pour personnaliser l’offre de suivi quotidien et les recommandations faisant suite au <em>formulaire</em> dans les <em>histoires</em>.</p>
<p>Cependant, ce <em>formulaire</em> unique d’évaluation n’a pas fait long feu; le design a changé dès que nous avons eu le dos tourné. Deux messages de recommandations, au sujet de l’isolement et de l’assistance à domicile, ont été remplacés par de petits flux de dialogue contenant chacun une question. La conception et l’implémentation de ceux-ci ont beaucoup changé. Au départ, les deux flux étaient des <em>formulaires</em> qui ont été insérés là où se trouvaient les messages correspondants. Ensuite, nous avons dû tripler le formulaire d’évaluation pour y insérer le flux d’isolement au début, au milieu ou à la fin selon la situation (évaluation régulière, test positif ou réévaluation). Plus tard, le flux d’isolement a été déplacé et modifié pour chaque situation, mais nous avons conservé trois versions distinctes du <em>formulaire</em> d’évaluation pour graduellement y inclure les questions spécifiques qui ne faisaient pas partie de la version commune. Nous avons conservé du code en commun, mais le “comment” a évolué avec le temps; nous élaborerons davantage sur ce sujet lorsque la question de la modularité sera traitée dans un futur article.</p>
<p><span style="font-size: x-large;">À cette étape du projet, notre modèle général utilise une combinaison <em>d’histoires</em>, de <em>formulaires</em> et <em>d’<a href="https://rasa.com/docs/rasa/core/actions/" target="_blank" rel="noopener">actions</a></em>; et peut être résumé ainsi:</span></p>
<ul>
<li><em>Histoires</em>: effectuer la transition entre les flux et sous-flux de dialogue, définir les séquences de formulaires, conditions et actions possibles pour chaque fonctionnalité et dialogue à haut niveau</li>
<li><em>Formulaires</em>: collecter des éléments d’information et définir des arbres de décision, gérer les sous-dialogues réutilisables incluant au moins une question, etc.</li>
<li><em>Actions</em>: utilisation variée lorsque la collecte d’information n’est pas requise, notamment l’affichage de plusieurs messages consécutifs</li>
</ul>
<p>Voici un exemple <em>d’histoire</em> illustrant le modèle à ce point-ci:</p>
<p><em>Flux d’auto-évaluation de base suivi d’une question</em></p>
<p>&nbsp;</p>
<p><a href="https://www.nuecho.com/wp-content/uploads/2020/09/3.bmp" target="_blank" rel="noopener"><img decoding="async" class="wp-image-6896 size-full aligncenter" src="https://www.nuecho.com/wp-content/uploads/2020/09/3.bmp" alt="" width="425" height="493" /></a></p>
<h3></h3>
<h3></h3>
<h3>Scène 5: Suivi quotidien; un autre type d’évaluation, un chemin connu</h3>
<p><span style="font-size: 18px;"><span style="font-size: large;"><span style="font-size: x-large;">Le but du suivi quotidien est de contacter l’utilisatrice (qui s’est préalablement inscrite) chaque jour pour évaluer ses symptômes et, entre autres choses, suivre leur progression. Une question initiale permet de déterminer laquelle de ces trois situations s’applique à l&rsquo;utilisatrice: elle se sent mieux que la veille, elle se sent plus mal, ou il n’y a pas de changement. Chaque situation a son propre arbre de décision, et chacun présente des variations en fonction des symptômes de la veille. Bien que certaines questions soient communes aux trois flux de dialogue, globalement, les similarités étaient insuffisantes pour pouvoir réutiliser des portions significatives du dialogue. Par conséquent, riches de notre expérience dans l’implémentation des flux d’auto-évaluation, nous savions que la meilleure façon d’implémenter les flux de suivi quotidien serait par le biais de trois</span> <em>formulaires</em> distincts.</span><br />
</span></p>
<h3></h3>
<h3>Scène 5.5: Jusqu’au bout du suivi quotidien</h3>
<p><span style="font-size: 18px;"><span style="font-size: large;"><span style="font-size: x-large;">Il y avait beaucoup plus que l’évaluation au suivi quotidien: un dialogue de “lien invalide” (l’identifiant de l’URL envoyé à l’utilisatrice pour accéder au suivi quotidien n’existe pas), la possibilité de se désinscrire en un clic avant l’évaluation, et une autre, selon les symptômes, après l’évaluation, ainsi qu’un ensemble de recommandations à la fin de la conversation. Le dialogue de lien invalide a été ajouté sous forme <em>d’histoires</em> puisqu’il faisait simplement le pont avec d’autres fonctionnalités. Les offres de désinscription ont été ajoutées comme <em>formulaires</em> puisque nous collections de l’information et devions interroger notre base de données. Les recommandations, quant à elles, ont d’abord fait partie d’une action constituant un flux indépendant, appelé si nécessaire comme <em>action subséquente</em> (<em><a href="https://rasa.com/docs/rasa/api/events/#force-a-followup-action" target="_blank" rel="noopener">followup action</a></em>) dans les <em>formulaires</em> de suivi quotidien ou de désinscription. Nous nous sommes toutefois rendu compte par la suite que les actions subséquentes devaient quand même faire partie des <em>histoires</em>, et lorsque nous avons ajouté les transitions vers d’autres fonctionnalités, il nous est apparu plus logique d’inclure les recommandations directement dans le formulaire.</span></span><br />
</span></p>
<h2></h2>
<h2></h2>
<h2>Dans le prochain épisode</h2>
<p>Dans cette première partie, j’ai décrit comment nous avons utilisé les <em>histoires</em> et les <em>formulaires</em> pour implémenter les multiples variantes des flux de dialogue d’auto-évaluation et de suivi quotidien. Quoique les <em>histoires</em> étaient adéquates au départ pour définir des arbres de décision simples contenant peu de branches, il est rapidement devenu évident qu’elles ne constituaient pas le meilleur outil pour implémenter des arbres de décision complexes, des branchements conditionnels ou encore des portions de flux réutilisables. Nous avons donc dû créer plusieurs <em>formulaires</em> qui ont été enchâssés dans des <em>histoires</em>, et recourir aux histoires pour gérer les flux à plus haut niveau.</p>
<p><span style="font-size: x-large;">Dans les phases suivantes du projet, nous avons ajouté aux fonctionnalités initiales les éléments suivants:</span></p>
<ul>
<li>Nous avons augmenté et amélioré les flux du Q&amp;R</li>
<li>Nous avons ajouté la recherche de cliniques de dépistage</li>
<li>Nous avons ajouté le support au langage naturel (NLU), d’abord dans certaines portions du dialogue, et au final partout</li>
</ul>
<p>Ces ajouts ont soulevé de nouveaux enjeux et présenté de nouveaux défis quant à la façon d’utiliser Rasa, non seulement dans la conception et le développement des dialogues, mais aussi pour s’assurer que la performance et la précision du traitement du langage naturel soient adéquates.</p>
<p>Nous nous attarderons à ces sujets dans la deuxième partie de cet article.</p>
<p>&nbsp;</p>
<p><em><span style="font-size: small; font-family: inherit; font-weight: normal;">¹Nous utilisons majoritairement le féminin afin d’alléger le texte</span></em></p>
<p><em><span style="font-size: small; font-family: inherit; font-weight: normal;">²Nous avons librement choisi de traduire les concepts les plus importants comme suit: story =&gt; histoire, form=&gt; formulaire, policy=&gt; politique, slot =&gt; case, featurized =&gt; caractérisée. Ces choix n’engagent que nous.</span></em></p>
<p><em><span style="font-size: small; font-family: inherit; font-weight: normal;">³Le code a été écrit en anglais; il s’agit de code en source libre pouvant être consulté par quiconque. Il n’a pas été traduit pour conserver la correspondance avec le projet réel.</span></em></div>
			</div>
			</div>
				
				
				
				
			</div>
				
				
			</div><p>The post <a href="https://www.nuecho.com/fr/chloe-levolution-ou-developper-un-agent-conversationnel-pour-la-covid-19-avec-rasa/">Chloé: L’évolution, ou Développer un agent conversationnel pour la Covid-19 avec Rasa</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p><p>The post <a href="https://www.nuecho.com/fr/chloe-levolution-ou-developper-un-agent-conversationnel-pour-la-covid-19-avec-rasa/">Chloé: L’évolution, ou Développer un agent conversationnel pour la Covid-19 avec Rasa</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Initiatives en automatisation conversationnelle &#8211; Notre sondage</title>
		<link>https://www.nuecho.com/fr/initiatives-en-automatisation-conversationnelle-notre-sondage/#utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=initiatives-en-automatisation-conversationnelle-notre-sondage</link>
		
		<dc:creator><![CDATA[Stéphane Séguin]]></dc:creator>
		<pubDate>Mon, 27 Apr 2020 18:00:35 +0000</pubDate>
				<category><![CDATA[Blogue]]></category>
		<guid isPermaLink="false">https://zux.zsm.mybluehost.me/majoctobre2019/?p=6331</guid>

					<description><![CDATA[<p>Étude sur l’utilisation de l’intelligence artificielle conversationnelle en centres de contacts &#160; Nu Echo, expert en automatisation conversationnelle intelligente, mène actuellement une étude afin d&#8217;en connaître davantage sur la vision et les défis auxquels font face les centres de contacts pour l&#8217;adoption de ces nouvelles technologies. C&#8217;est pourquoi nous sollicitons votre opinion. Ce sondage porte [&#8230;]</p>
<p>The post <a href="https://www.nuecho.com/fr/initiatives-en-automatisation-conversationnelle-notre-sondage/">Initiatives en automatisation conversationnelle – Notre sondage</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
<p>The post <a href="https://www.nuecho.com/fr/initiatives-en-automatisation-conversationnelle-notre-sondage/">Initiatives en automatisation conversationnelle &#8211; Notre sondage</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h3>Étude sur l’utilisation de l’intelligence artificielle conversationnelle en centres de contacts</h3>
<p>&nbsp;</p>
<p><span style="font-size: x-large;">Nu Echo, expert en automatisation conversationnelle intelligente, mène actuellement une </span><span style="font-size: x-large;"><strong>étude</strong> afin d&rsquo;en connaître davantage sur la vision et les défis auxquels font face les centres de contacts pour l&rsquo;adoption de ces nouvelles technologies. </span></p>
<p>C&rsquo;est pourquoi nous sollicitons votre opinion.</p>
<p>Ce sondage porte sur les <strong>caractéristiques </strong>et les <strong>activités </strong>des entreprises <strong>utilisant l’automatisation conversationnelle basée sur l’intelligence artificielle (IA)</strong>.</p>
<p>Il faut environ<strong> 8 minutes</strong> pour répondre à l&rsquo;ensemble des questions. Toutes les données recueillies demeureront anonymes.</p>
<p>Nous publierons les résultats de ce sondage afin que vous puissiez accéder aux conclusions.</p>
<p>Nous vous remercions de votre collaboration!</p>
<p><span style="font-size: medium;"><em><span style="font-size: large;">(Fermeture du sondage 31 mai 2020)</span></em></span></p><p>The post <a href="https://www.nuecho.com/fr/initiatives-en-automatisation-conversationnelle-notre-sondage/">Initiatives en automatisation conversationnelle – Notre sondage</a> first appeared on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p><p>The post <a href="https://www.nuecho.com/fr/initiatives-en-automatisation-conversationnelle-notre-sondage/">Initiatives en automatisation conversationnelle &#8211; Notre sondage</a> appeared first on <a href="https://www.nuecho.com/fr/">AI Virtual Voice Experts with Google Dialogflow CX - CCAI - Nu Echo</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
