Retour sur l’entrevue live sur Google CCAI de VUX World avec Antony Passemard

par | Mar 26, 2021 | Blogue

La semaine dernière, j’ai assisté à une entrevue très intéressante avec Antony Passemard, grand responsable de l’IA conversationnelle chez Google Cloud, animée par Kane Simms and Dustin Coates de VUX World. L’entrevue portait principalement sur trois composantes clés de Google Contact Center AI (CCAI) – Virtual Agents/Dialogflow, Agent Assist et Insights – et comment Google les met à la disposition des clients. Voici quelques points que nous avons retenus.

Dialogflow CX vs. ES

L’entrevue débutait par une comparaison entre Dialogflow CX et ES. CX n’est pas qu’une simple évolution par rapport à ES; c’est en fait un redesign complet, avec un modèle de dialogue plus intuitif et beaucoup plus puissant. CX propose entre autres une nette séparation entre les intentions et les dialogues, ce qui augmente considérablement la réutilisabilité des intentions et la gestion des dialogues. CX vient avec une interface visuelle qui peut facilement être utilisée par les “Conversational Architects” afin de créer des dialogues complexes tout en utilisant moins de lignes de code.

Selon Passemard, c’était une demande de longue date de la part de beaucoup de clients. Bien que Google continuera à supporter et faire évoluer Dialogflow ES, qui reste approprié pour des dialogues simples, Dialogflow CX devrait devenir la plateforme toute désignée pour gérer les dialogues longs et complexes. De plus, Dialogflow CX offre plusieurs avantages par rapport à ES :

  • Une tarification plus prévisible (mais pas nécessairement moins coûteuse)
  • Plusieurs fonctionnalités spécifiques pour la RVI (incluant le support du ‘’barge-in’’, du DTMF, des “timeouts” et des “retries”)
  • La possibilité de supporter jusqu’à 40 000 intentions (comparativement à 2 000 avec ES)
  • Davantage de fonctionnalités de collaboration qui permettent aux équipes de développement de travailler plus efficacement sur de grands projets
  • Un meilleur support pour l’analytique, l’expérimentation et les boucles de rétroaction.
  • Un engin NLU plus performant, basé sur le dernier modèle BERT.

Tout le monde peut utiliser Dialogflow aujourd’hui. Cependant, pour la RVI conversationnelle, l’intégration de Dialogflow à une plateforme de centre de contact reste généralement un défi. Par exemple, la plateforme RVI doit pouvoir fournir à Dialogflow certains événements ou paramètres, que ce soit pour utiliser le DTMF pour des choix de menus, ou encore pour la gestion incrémentielle d’événements “no-input”.

Passemard a mentionné que certaines solutions, telles que Audiocodes, peuvent faciliter cette intégration. Fait intéressant, il a également mentionné qu’il est préférable de transmettre le flux audio directement à Dialogflow plutôt que d’utiliser Google STT pour transcrire l’audio et envoyer par la suite la transcription vers Dialogflow. La raison étant que Dialogflow dispose d’une fonction d’adaptation vocale automatique qui optimise la précision de la transcription en fonction des phrases d’apprentissage de l’agent.

Cela dit, notre propre expérience montre que nous pouvons souvent obtenir des résultats aussi bons sinon meilleurs en transmettant l’audio directement à Google STT, en utilisant l’adaptation vocale. De plus, il est souvent nécessaire de post-traiter les résultats de transcription afin de les rendre compatibles avec le NLU de Dialogflow, ce qui n’est pas possible lorsqu’on transmet le flux audio directement à Dialogflow.

L’Assistant à l’Agent pour le canal voix

Le sujet suivant abordé dans l’entrevue était l’Assistant à l’Agent (“Agent Assist”). C’est un sujet d’importance pour au moins deux raisons. D’abord, parce qu’il existe des cas d’utilisation très prometteurs pour l’Assistant à l’Agent et ensuite parce que nous avons beaucoup entendu parler de l’Assistant à l’Agent CCAI au cours des deux dernières années, mais qu’il a été difficile de comprendre exactement comment accéder à cette capacité.

Sur ce dernier point, Passemard a confirmé ce que nous soupçonnions, c’est-à-dire qu’il n’y a pas d’API publique pour l’Assistant à l’Agent vocal, Google ayant décidé de le rendre disponible uniquement via les partenaires de téléphonie CCAI. Comme le mentionne Simms, c’est probablement une bonne stratégie commerciale pour Google. En travaillant de manière agressive avec les partenaires de téléphonie pour intégrer l’Assistant à l’Agent à leurs plates-formes et en vendant cette fonctionnalité exclusivement à travers ces partenaires, Google pourrait faire en sorte de devenir le choix de facto pour l’Assistant à l’Agent.

L’inconvénient, par contre, est que les entreprises dépendent entièrement de la motivation et de la capacité des fournisseurs des plateformes de centres de contact à rendre CCAI disponible à leur clientèle. Il pourrait donc s’écouler beaucoup de temps avant que nombre d’entreprises ne puissent tirer parti de CCAI et, lorsque ça sera possible, ça pourrait demander des mises à niveau très coûteuses de leur infrastructure de centre de contact. Pour cette raison, les clients pourraient finir par se rabattre sur les solutions alternatives qui deviendront inévitablement disponibles.

Cela m’amène aux cas d’utilisation d’Agent Assist. Passemard a mentionné que la fonctionnalité de proposer des documents pertinents aux agents en fonction de la conversation n’a pas été jugée très utile par les clients. Les agents ne veulent pas lire des documents complets pour trouver la réponse aux questions des clients. Ils veulent une recherche extractive, qui peut extraire automatiquement la partie pertinente du document. Et, d’après ce qu’on a compris, cette fonctionnalité arrivera bientôt. Mais ce qui décolle vraiment en ce moment selon Passemard, c’est la capacité de remplir automatiquement des formulaires en temps réel avec les informations mentionnées par l’appelant. Et, bien sûr, un autre avantage de l’Assistant à l’Agent est d’obtenir une transcription de chaque appel.

L’Assistant à l’Agent pour le chat

Passemard a indiqué que l’Assistant à l’Agent pour le chat améliore considérablement la productivité et la satisfaction des agents et les scores CSAT. En particulier, les fonctionnalités Smart Reply et Smart Compose sont fournies à l’aide de modèles prédictifs entraînés sur les données du client, ce qui les rend beaucoup plus précises. L’Assistant à l’Agent pour le chat n’est actuellement disponible qu’à travers les fournisseurs de chat, mais une API publique sera bientôt disponible.

Insights

La dernière fonctionnalité CCAI mentionnée est Insights, qui est le nom que Google donne pour l’analytique des conversations (“speech analytics”). Insights est toujours en préversion, mais la bonne nouvelle est que ça sera bientôt accessible à tous avec une API publique. Insights consiste à comprendre les conversations qui se déroulent dans le centre de contact. En utilisant Insights, les entreprises pourront examiner les conversations, les indexer, les rechercher, faire de la modélisation de sujets et de l’analyse des sentiments, naviguer dans une conversation et effectuer des recherches en langue naturelle (par exemple, « donnez-moi toutes les conversations avec un message d’accueil » ). Google offrira une intégration SIPREC.

Notes finales

Passemard a mentionné que l’IA conversationnelle est probablement la première application de l’IA à avoir un impact profond sur les consommateurs. C’est une affirmation intrigante; il serait intéressant de voir quelques données qui soutiennent ses propos. Il conclut également en insistant sur l’importance d’un bon architecte conversationnel. Nous ne pourrions être plus en accord avec lui. Ce n’est certainement pas une expertise qui peut s’apprendre en deux semaines. Les très bons ont des années d’expérience et sont essentiels à la réussite de tout projet conversationnel.

A propos de l'auteur : <a href="https://www.nuecho.com/fr/author/ynormandin/" target="_self">Yves Normandin</a>

A propos de l'auteur : Yves Normandin

Fort de plus de 30 années d’expérience, M. Normandin gère les équipes de reconnaissance de la parole, de traitement (automatique) du langage naturel et des technologies d’apprentissage machine. Il apporte également son savoir-faire à toute l’équipe Nu Echo. Tout au long de sa carrière, il a touché les domaines de la recherche, du développement de produits et d’applications, ainsi que le développement d’entreprises. Il définit aujourd’hui la vision commerciale et technologique de Nu Echo, établit des alliances stratégiques et dirige la pratique des technologies de la parole.