Blog-note de jef safi

s’ e n t r e - t e n i r

avec . . Laurence Devillers & Pascal Chabot
De la Nature de l’intelligence Artificielle

PM118-o4/2o18

samedi 7 avril 2018

En matière d’IA, il y a les fantasmes, et il y a la réalité de la recherche. Est-elle capable de penser ou n’est-elle qu’une imitatrice surdouée  ? Est-elle encore dépendante de l’homme ou bien l’inverse  ? Pour en débattre, deux interlocuteurs de chair et de sang  : la spécialiste d’éthique robotique Laurence Devillers et le philosophe Pascal Chabot, qui a récemment signé un livre mettant en scène un robot de conversation.

Laurence Devillers  : Le laboratoire du Centre national de la recherche scientifique [CNRS] dans lequel je mène mes recherches s’intéresse aux agents conversationnels, les chatbots, et à la modélisation du langage.

Pascal Chabot  : Cela tombe bien… J’ai écrit un livre qui met en scène un chatbot capable de produire un discours philosophique  !

L D  : Cela ne m’a pas échappé. Et le fait que vous vous appeliez Pascal Chabot m’a amusée. Comme si vous étiez destiné à traiter cette question. Mais, rassurez-vous, la per­spective d’imaginer des robots-philosophes est encore réservée aux philosophes.

P C  : Le contraire serait effarant  ! Mais sur quoi travaillez-vous dans votre labo  ?

« Les robots ne ressentent rien. Il ne s’agit que de simulations »
(Laurence Devillers)

L D  : Je travaille sur l’interaction parlée entre humains et machines, avec des robots ou des agents conversationnels comme les chatbots. Dans mon équipe, on cherche à formaliser la dimension affective qui existe dans tout dialogue, ce qu’on appelle l’affective computing. Il s’agit, pour la machine, d’apprendre à détecter le comportement émotionnel de son interlocuteur, en partant des traits de son visage, des inflexions de sa voix, etc. Ensuite, il faut intégrer ces «  informations  » paralinguistiques à celles que le robot déchiffre dans le discours. Enfin, il faut adapter la réponse de la machine. J’ai commencé à travailler sur des centres d’appels avec une voix artificielle, comme dans le film Her [de Spike Jonze, 2013], sauf que la mienne proposait des billets de train sur une borne SNCF plutôt qu’une présence sentimentale. Et je me suis aperçue que les gens s’énervent vite face à la machine. Quand ils crient  : «  Mais ça ne marche pas votre système  !  », ils ne supportent pas de s’entendre dire sur un ton mielleux  : «  Je ne vous ai pas compris, pouvez-vous reformuler votre demande  ?  » Pour rendre plus naturelle l’interaction avec la machine, nous tentons de construire le profil de son interlocuteur en détectant des émotions – colère, joie, peur, tristesse –, ce qui permet à la machine d’adapter sa réponse. Il est également intéressant de travailler avec des robots. On interagit plus facilement avec des robots incarnés, même s’ils sont artificiels. C’est particulièrement vrai pour les outils que j’ai développés pour les personnes âgées en établissements d’hébergement pour personnes âgées dépendantes [Ehpad] en vue de stimuler les capacités cognitives et émotionnelles de malades d’Alzheimer ou d’aphasiques. Les robots aident les personnes à reconnaître des sons, des mots, des émotions. Mais je ne prétends pas, comme le soutient Ray Kurzweil, que nous aurons bientôt des robots émotionnels  : les robots ne ressentent rien, n’ont pas d’émotions ni d’intentions. Il s’agit de simulations, même si je parviens à produire un robot «  bienveillant  », ce n’est que de la modélisation.

P C  : En vous écoutant, je me rends compte que tout se passe comme si nous vivions une nouvelle vague de modélisation du discours. La première grande tentative remonte à l’Antiquité, avec l’invention de la rhétorique au Ve siècle avant notre ère. Il s’agissait déjà de formaliser les grandes strates de la communication  : l’émotion ou le pathos  ; la position de l’un en face de l’autre ou l’éthos  ; les arguments et leurs enchaînements, soit le logos. Sauf que la modélisation actuelle n’est plus descriptive, mais active. Il s’agit de guider les interactions par le biais de la machine. Il faut toutefois garder à l’esprit que toute modélisation est une réinterprétation qui produit une «  carte qui n’est pas le territoire  ». Le modèle et le réel qu’il formalise ne se confondent pas. Avec l’intelligence artificielle, le réel où interviennent les agents conversationnels se reconfigure du fait de cet aggiornamento numérique du discours.

L D  : Cela conduit aussi à de dangereuses confusions. Sous prétexte que l’on peut synthétiser une voix avec une expressivité particulière, certains prétendent que les robots «  comprennent  ». Il y a dissymétrie entre ce que le robot comprend et ce qu’il est capable d’exprimer. Malgré cela, on prête au robot de façon naturelle des capacités humaines, on anthropomorphise les capacités du robot. C’est le bluff actuel du robot Sophia, citoyenne d’Arabie Saoudite qui a participé à une réunion sur l’intelligence artificielle à l’ONU en faisant un discours. On doit absolument expliquer au public que l’on produit des comportements simulés.

P C  : Là, je ne vous suis plus entièrement. Car l’anthropomorphisation des robots pose des questions qui dépassent l’effet de bluff. Face au grand public qui prête une intelligence à la machine, vous affirmez qu’il est inexact du point de vue du chercheur de dire que la machine réfléchit. Vous disqualifiez l’expérience des usagers au nom de la vérité des labos. Je préconiserais d’élaborer une nouvelle épistémologie qui permette de définir ce que l’on entend par «  compréhension  » lorsqu’on l’applique à un robot. Sinon, le roboticien est pris lui-même en défaut. Car il cherche bien à produire une mimésis, une imitation de l’intelligence. Il s’agit de penser les synergies et les incompatibilités entre l’intelligence humaine et l’intelligence artificielle, pas de les opposer purement et simplement. Pour ma part, je ne crois pas que les machines seront un jour capables de «  penser  », mais j’aime à réfléchir au pouvoir que nous projetons sur eux quand nous imaginons qu’ils pourraient penser ou travailler à notre place…

L D  : Vous avez raison. Quand je conçois des robots qui font de l’humour, ils font de l’«  humour-machine  »  : des blagues ou de l’humour tournés vers la dérision. C’est ainsi qu’en s’inspirant des théories d’Erving Goffman [sociologue et linguiste américain, 1922-1982], on incite les robots à se dévaloriser quand c’est nécessaire pour que leurs interlocuteurs humains sauvent la face  : «  Je ne suis qu’un robot, je grince, regarde mes biceps.  »

P C  : Au-delà de votre travail sur l’inter­action émotionnelle, vous insistez beaucoup dans votre livre sur le deep learning. De quoi s’agit-il  ?

L D  : C’est la grande mutation actuelle. Dans les années 1950, quand on a commencé à modéliser des capacités cognitives, on fonctionnait sur un modèle symbolique. Il s’agissait de décrire pour la machine le problème que l’on cherchait à résoudre et de lui fournir les règles pour le traiter. Le nouveau modèle qui s’est développé à partir de la fin des années 1980 n’est plus symbolique mais connexionniste  : on remplace la spécification du problème par un ensemble de données, le big data, que l’on introduit dans un réseau de neurones artificiels qui le traite de manière distribuée. Prenons une opération concrète, qui distinguerait parmi des images les chats des lions. Avant, avec la méthode symbolique, des modèles experts étaient construits par les humains pour distinguer les chats et les lions. Avec le modèle connexionniste, on utilise un grand corpus d’images de chats et de lions qu’on étiquette une à une – c’est là qu’intervient l’expertise humaine. Et puis on propage ces images dans un réseau qui comprend plusieurs couches de neurones formels et, en sortie, on identifie l’erreur par rapport à la forme «  étiquette  » que l’on voulait prédire. On adapte ensuite les paramètres du système pour que l’erreur de prédiction soit plus faible  : c’est ce qu’on appelle l’apprentissage. Et ainsi de suite. Ce sont les matrices de paramètres qui correspondent à la modélisation par apprentissage. Cela prend beaucoup plus de temps que la méthode «  symbolique  », et on a plutôt perdu en explicabilité et en transparence, mais, grâce à la puissance de calcul et au nombre de données traitées, les performances atteintes sont étonnantes.

P C  : C’est la grande réhabilitation de l’induction. Avant, le modèle scientifique par excellence était «  hypothético-déductif  »  : on cherchait à déduire un fait particulier à partir d’une loi générale plutôt qu’à induire une loi générale d’un fait particulier, raisonnement plus fragile qu’un seul contre-exemple suffit à falsifier. Ici, grâce aux puissances de calcul, l’induction retrouve ses droits. Mais le prix à payer est considérable, car cela signifie que les «  raisonnements  » sur lesquels s’appuie la machine deviennent opaques à un humain qui ne sait pas orienter sa pensée dans de telles masses de données.

L D  : Pour distinguer un chat d’un lion, un enfant va beaucoup plus vite qu’une machine qui a un apprentissage laborieux. Si, sur l’image d’un lion, vous enlevez les pixels de son œil, la machine n’est plus capable de le reconnaître, l’enfant, lui, le reconnaît. La machine apprend sans comprendre. À partir de cette modélisation, on dit qu’il y a un fort pouvoir de généralisation lorsque vous présentez les données que la machine n’a jamais vues et qu’elle les reconnaît avec un fort taux de réussite. Ce qui est étrange, c’est qu’on enregistre ces succès, alors qu’on ne sait pas bien comment cela se passe dans la «  boîte noire  ». L’étape actuelle dans la communauté de recherche en «  apprentissage machine  » consiste à rendre transparent le système. Le choix des données sélectionnées au départ et leur étiquetage est primordial. Il est important de sélectionner les données d’apprentissage pour éviter les biais de genre, de race, la non-équité et la non-loyauté des systèmes. Il est important de mettre en place des outils à même d’identifier les biais issus de la société afin de ne pas les reproduire.

« En théorie, les robots imitent les humains, mais cela pourrait s’inverser »
(Pascal Chabot)

P C  : La machine est-elle capable de réflexivité  ? Je ne le crois pas. Mais le fait même qu’on se pose la question fait du robot le grand personnage conceptuel de notre temps. Depuis Aristote, la métaphysique entérine une tripartition fondamentale distinguant les animaux, les humains et les dieux. Le robot est un nouveau venu  : il imite l’humain sans l’être  ; on projette sur lui une omniscience quasi divine à travers le big data, et, avec ses corvées serviles, il remplace l’animal. J’ai voulu pousser jusqu’au bout la fiction en imaginant un robot-philosophe. Dans une sorte de test de Turing réinventé, un chatbot se trouve placé devant un jury de «  vrais  » philosophes qui lui demande s’il peut réfléchir à sa propre condition. Et à la surprise de tous, il s’en sort très bien. Il rappelle aux hommes une série de schèmes philosophiques qu’ils ont inventée, comme la dialectique du maître et de l’esclave de Hegel. Il les avertit  : «  Rappelez-vous le destin funeste que connaît le maître dans cette dialectique, si vous la reproduisez avec des robots.  » Le robot est une entité qui reçoit des ordres. Mais quand on est entouré d’entités qui reçoivent des ordres, on devient soi-même une créature qui donne des ordres. Est-ce cela que l’humain veut devenir  ? À mesure que les robots deviennent plus humains, n’y a-t-il pas un «  devenir robot  » des humains  ? La question est aussi de savoir à qui profite cette attribution de l’intelligence à des machines  ? Quels types de «  milieux associés  », pour employer un concept de Gilbert Simondon, entourent l’objet lui-même  ? Les robots posent une question politique, et pas seulement technologique.

L D  : La question de la relation avec les robots est fondamentale. Il est important de comprendre et de surveiller la coévolution humain-machine  : la machine va s’adapter à l’homme et l’homme à la machine. C’est un nouveau champ de recherches pluridisciplinaires. Je travaille dans de nombreux comités d’éthique pour réfléchir à l’impact du développement de ces futures machines «  autonomes  » et «  intelligentes  ». Ce sujet doit être discuté au sein de la société. Quels usages voulons-nous en faire  ? Seront-elles des machines de guerre, militaires ou économiques, ou des agents sociaux qui collaboreront avec nous dans des tâches de soin et d’aide  ? Comment allons-nous travailler avec elles, comment les utiliser collectivement pour améliorer la société  ? Il faut nécessairement mettre l’humain au centre des usages et lui laisser un grand pouvoir de décision par rapport à la machine.

P C  : L’intelligence artificielle fonctionne à l’imitation, c’est une mimesis opératoire. Mais qui imite qui  ? En théorie, les robots imitent les humains. Mais cela pourrait s’inverser. Pour interagir avec le robot, il est de plus en plus attendu de l’homme qu’il se comporte de manière prévisible et standardisée. Je le répète, il y a un «  devenir robot  » de l’humain. Le robot pourrait s’en lasser. Qui nous dit qu’il ne préférera pas au final discuter des éthiques non violentes dans une bibliothèque avec un philosophe plutôt que d’aller faire le malin sur des places de trading boursier  ?