Les machines prennent la parole par Françoise Engrand

En cette période de vacances, je vous propose une réflexion sur ces nouveaux outils autour de larges extraits d’un article d’Arnaud Devillard publié dans le numéro 843 de mai 2017 du mensuel Sciences et Avenir.
Je tiens à préciser que le chatbot ELIZA est un un thérapeute virtuel qui ne remplace pas le médecin mais permet des évaluations. De la même manière il est possible d’envisager un coach virtuel qui pemettra de cerner les difficultés avant de contacter un coach.
Cette approche est en cours avec un de nos partenaires à travers le logiciel PocketConfidant qui est en cours de développement. Nous aurons l’occasion d’y revenir prochainement.
En attendant, bonne lecture et bonnes fins de vacances.
Les robots conversationnels “chatbot” utilisent les progrès de l’Intelligence Artificielle et de l’apprentissage automatique pour affiner leur interaction avec les humains.
Ils s’appellent Andrew, Howdy, Amy, Julia, Sophie, Molly, Alexa, Joy, Jam. Ils et elles sont assistants et leur travail consiste à discuter. Ce sont en fait des “chatbots” (de “chat” discuter et “bot” aphérèse de robot), des programmes informatiques capables de fournir questions ou réponses en temps réel et en langage naturel dans le cadre d’échanges avec un humain sur ordinateur ou Smartphone. Il s’en est créé 11 000 entre mars et juillet 2016, plus ou moins élaborés, rien que sur la messagerie instantanée de Facebook. Le concept n’a rien de nouveau, le premier « chatbot » (ELIZA) conçu au MIT (Massachusetts Institute of Technology, États Unis), remonte au milieu des années 1960. Mais les progrès récents de l’intelligence artificielle conjugués à ceux du traitement du langage et à l’ergonomie des interfaces ont entrainé une profusion de ces programmes, intégrés aux messageries instantanées, sites Web et autres outils d’entreprise.
Ils sont parfois dotés d’une véritable personnalité, détectable à travers le langage utilisé. Jam, par exemple, un « chatbot » mis au point par une start-up française et destiné à fournir des idées de sorties aux étudiants, s’exprime à coup de « à plus », « j’ai pas tout capté », “on fait quoi?”…. un résultat obtenu grâce recours à des professionnels de l’écriture et de la création de personnages, écrivains ou scénaristes. C’est le cas de Cortana, l’assistant vocal de Microsoft, ou de Sophie, « chatbot » médical allemand dont le texte est travaillé par une scénariste.
 
Plus il est utilisé, plus le système s’améliore.
La notion d’apprentissage automatique est au cœur de beaucoup de ces agents conversationnels : le système interagit de mieux en mieux au fur et à mesure qu’il est utilisé par davantage de personnes. C’est le cas des interfaces vocales Cortana, mais aussi Siri pour Apple, Google Now ou du récent Bixby de Samsung. Le logiciel de Julie Desk, un assistant de prise de rendez-vous par e-mail créé par trois polytechniciens français, a ainsi été entraîné à reconnaître les différentes étapes d’un choix de date et heure pour pouvoir envoyer des relances en cas de non réponse, suggérer plusieurs propositions (Julie Desk a accès aux agendas), reporter des engagements, etc. «Dans 80 % des cas, les interventions de Julie sont directement validées par un humain et dans 20 % des cas, il faut les corriger, ce qui permet au logiciel d’apprendre », explique Caroline Baron, responsable du marketing.
Pour autant, peut-on véritablement parler de “conversations” ? «Pour beaucoup de ces outils, il s’agit de successions de questions et de réponses : les tours de parole s’enchaînent mais il n’y a pas de dialogue, car il faudrait pour cela pouvoir faire référence à ce qui s’est dit très en amont, ce qui est difficile», explique Catherine et Pélachaud chercheuse CNRS à l’Institut des systèmes intelligents et de robotique. Depuis 1999, elle développe des agents conversationnels animés prenant en compte des signaux de communication dits non verbaux, en se fondant sur des technologies de reconnaissance visuelle et sonore utilisant la caméra et le micro d’un ordinateur.
«Nous travaillons à faire en sorte que l’agent réagisse à des signaux détectés chez l’humain comme des sourires, des hochements de tête, des haussement de sourcils, etc. ». À travers des méthodes d’apprentissage automatique, une corrélation est établie entre ces signaux et la prosodie de l’interlocuteur, à savoir le ton et les inflexions de sa voix, trahissant telle émotion particulière, et analysée par des technologies de traitement du signal. Là encore, il s’agit de permettre au « chatbot » d’interagir.
————
D’autres domaines n’en sont qu’à leurs balbutiements, comme le traitement de la sémantique ou la mémorisation d’un dialogue. «L’enjeu n’est pas de faire passer une machine pour un humain mais de faire en sorte qu’elle soit mieux comprise par un humain » prévient Laurence Devillers, chercheuse au laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur. En 2016, la mésaventure du « chatbot » Tay lancé par Microsoft sur Twitter a rappelé une autre limite du dialogue homme-machine. En quelques heures, les internautes ont exploité sa capacité d’apprentissage pour lui faire exprimer des propos racistes et complotistes. Au point que Microsoft a dû mettre aussitôt fin à l’expérience. Comment, dans ces circonstances, amener une IA à se reprendre? «Le désapprentissage –autrement dit l’oubli– est très difficile pour une intelligence artificielle, admet Laurence Devillers, la seule solution est de tout effacer » autrement dit : couper la parole au chatbot.
 
 
 

Partagez cet article sur :

Partager sur facebook
Partager sur twitter
Partager sur linkedin