Intelligence artificielle : une machine peut-elle ressentir de l’emotion ?

Intelligence artificielle : une machine peut-elle ressentir de l’emotion ? Quelques programmes savent deja les imiter a la perfection et meme influer concernant les propres emotions. Notre science-fiction nous abreuve de robots autonomes, si perfectionnes qu’ils disposent d’une conscience, d’emotions et nous inspirent aussi de l’empathie, a l’instar des etres humains. Mais loin en litterature […]

Intelligence artificielle : une machine peut-elle ressentir de l’emotion ?

Quelques programmes savent deja les imiter a la perfection et meme influer concernant les propres emotions.

Notre science-fiction nous abreuve de robots autonomes, si perfectionnes qu’ils disposent d’une conscience, d’emotions et nous inspirent aussi de l’empathie, a l’instar des etres humains. Mais loin en litterature et d’Hollywood, qu’en est-il aujourd’hui dans les laboratoires de l’univers entier ? L’emotion, et Notre conscience, apparaissent tel des points essentiels pour fabriquer une machine a l’image de l’etre humain. Mais elles font aussi partie des plus difficiles a conceptualiser.

« l’existence interieure, on ne sait jamais ce que c’est »

Et c’est la que reside Notre plus grande difficulte : De quelle fai§on definir – et donc reproduire – l’emotion et J’ai conscience ? « On ne sait gui?re ce que c’est que la conscience, on n’en connait gui?re des fondements. On n’est donc jamais capables de creer une machine consciente », tranche Jean-Gabriel Ganascia, chercheur au laboratoire d’informatique de Paris-VI et auteur de L’Intelligence artificielle (Editions Le Cavalier Bleu, collection pensees recues, 2007). « Pour ceci, il faudrait que la machine percoive comme nous : la douleur, le plaisir… Et quand bien meme, elle ne des percevra pas de la meme maniere que nous. »

Une analyse partagee via Jean-Michel Besnier, professeur de philosophie a J’ai Sorbonne et specialiste de l’intelligence artificielle :

« notre vie interieure, on ne sait gui?re ce que c’est. L’intelligence artificielle a donc fini avec depouiller la notion de conscience d’une notion d’interiorite, et l’a definie simplement en termes de comportement : on va pouvoir l’imiter chez des machines. »

A defaut d’etre capables de ressentir, nos machines peuvent neanmoins simuler, en apparence, des emotions et une conscience : c’est via ce sujet que se concentrent aujourd’hui nos chercheurs en intelligence artificielle ; un domaine de recherche intitule « informatique affective ». Car finalement, « quelle est la difference entre ressentir et donner nos indices visibles du ressenti ? », interroge Jean-Michel Besnier :

« Ce sont les signaux qui comptent. En toute rigueur, votre interiorite, je ne sais jamais si elle existe… Elle se manifeste a moi avec des signes exterieurs. Je ne sais jamais ce que c’est que de ressentir une emotion chez votre nouvelle etre humain. Je peux ressentir de l’empathie, mais je peux aussi en ressentir face a un acteur, qui simule. Je ne pourrais nullement connaitre si ces signes emanent d’une interiorite ou d’une simulation. C’est pourquoi Afin de ceux qui fabriquent des machines, si elles sont capables de simuler, ca suffira. »

Simuler l’emotion

Catherine Pelachaud fera partie de ceux-la. Directrice de recherche au CNRS et a Telecom-ParisTech, elle fabrique voili  des annees des « agents conversationnels », sortes d’avatars capables de discuter avec des etres humains. Son champ de recherche concerne milfaholic interface plus precisement nos « comportements non verbaux », soit les indices visibles d’emotion transmis avec l’avatar. « J’ai machine ne ressent nullement, mais elle va transmettre, souligne votre chercheuse. Le ressenti reste du domaine de l’homme, ainsi, ca doit le rester ! Une machine reste la Afin de pallier des besoins. Pour ceci, la simulation va suffire. »

Les « agents » qu’elle elabore accompagnent leurs paroles de gestes, de mouvements d’la tronche ou d’expressions du visage qui les rendent plus humains. Ils seront aussi capables de reagir aux emotions transmises par un interlocuteur. « Dans J’ai communication, le non verbal apporte beaucoup, il va permettre de mieux se saisir. Sans ca, ce pourrait etre comme parler a votre mur. Ca permet d’oublier qu’on parle a une machine. »

Et afficher une emotion reste moins simple qu’il n’y parait. « Ca peut aller jusqu’a des micro-expressions. Depuis quelques types de sourires : si vous pincez les levres, si vous plissez le regard, i§a aura diverses significations », explique Catherine Pelachaud.

Notre chercheuse en psychologie Sylwia Hyniewska a observe, pourquoi pas, grace a une experience, que les propos d’agents incapables de soulever la partie externe de leurs sourcils etaient consideres avec leurs interlocuteurs comme moins pertinents.

Malgre ce probleme du detail, nos avatars utilises par les equipes de recherche en informatique affective ne semblent jamais tres realistes. A l’heure ou les entreprises d’effets speciaux sont capables de realiser des images de syntheses ultra-detaillees, pourquoi se contenter d’agents si schematiques ? « Contrairement au cinema, qui a des animateurs pour peaufiner chaque expression, les agents doivent etre autonomes et reagir a autre reel », indique Catherine Pelachaud.

Mais surtout, si le realisme est trop important, « on tombe dans la vallee de l’etrange », previent-elle. Selon cette theorie du Japonais Masahiro Mori, les representations tres realistes, mais toujours imparfaites, de l’homme, nous paraissent derangeantes, voire monstrueuses. Nous serions, en revanche, bon nombre plus enclins a trouver sympathiques et a ressentir de l’empathie Afin de des representations de l’humain beaucoup plus schematiques.

Ce robot capable de simuler des emotions, empruntant ses traits a Albert Einstein et developpe via l’entreprise Hanson Robotics, en est un delicieux exemple.

Detecter les emotions

Mais les programmes developpes via l’informatique affective ne se contentent aucune mimer les emotions. Ils doivent aussi etre en mesure de detecter celles des humains, et de s’y adapter a autre reel. Pour cela, ils observent et analysent les expressions et les mouvements de leur interlocuteur : s’il regarde ailleurs, s’il montre qu’il n’a jamais compris, s’il manifeste 1 desaccord. Cela n’est jamais simple. Car et puis des emotions « de base », definies par le psychologue americain Paul Ekman (tristesse, joie, peur, colere, surprise, degout), il y a des emotions plus complexes a dechiffrer Afin de un programme.

Comment, notamment, distinguer la surprise de l’etonnement ou la tension de l’anxiete ? Interpreter un haussement de sourcils n’est pas non plus aise. Veut-il dire bonjour ? Signifie-t-il la surprise ? L’emphase ? « Pour cela, il va falloir des informations sur le contexte, ainsi, c’est reellement difficile », souligne sa chercheuse. Le comprendre reste pourtant indispensable Afin de repondre a ces signaux de facon appropriee. Sinon, l’agent va parfois coder un malentendu, une incomprehension, voire de couper le dialogue.

Car en imitant l’emotion, les programmes nos plus avances sont aussi succeptible… de generer de l’emotion chez les humains. Ainsi, le projet europeen Semaine, auquel participait Catherine Pelachaud, a donne des resultats surprenants. Les agents developpes etaient tous dotes d’un etat emotionnel tri?s, comme sa tristesse, la colere ou le bonheur. Objectif : amener un interlocuteur, humain, vers le meme etat emotionnel qu’eux. « Il y a eu des interactions absolument incroyables », se souvient la chercheuse, qui a mene ces experiences on voit 5 ans.

« Face a 1 agent depressif, le sujet montrait de l’empathie. Parfois, l’etat emotionnel du sujet changeait au milieu d’une conversation. J’etais surprise qu’il y ait des interactions aussi riches, aussi naturelles. Car les personnages ne bougeaient pas beaucoup, le modele est assez simple. Mais le fait que le comportement arrive avec le bon timing nous a montre que nous avions reussi a obtenir un parami?tre essentiel en communication non verbale. »