À quoi sert l’empathie artificielle ?

14/06/2018 / AI & Society

Interagir avec des IA ou des robots, c’est pour l’homme faire l’expérience d’une altérité radicale et potentiellement perturbante. Il n’est donc pas étonnant que les géants du numérique se préoccupent de rendre leurs interfaces « empathiques ».

Thème classique de la science-fiction, « l’émotion artificielle » n'existe pas à ce jour. Afin de rendre plus fluides leurs interactions avec nous, les intelligences artificielles peuvent être entraînées à mimer les émotions humaines, mélange d’empathie cognitive (détection et compréhension des émotions d’autrui) et affective (adoption d’une réaction appropriée à ces dernières). Mais pourquoi se donner tant de peine à développer pareil artifice ?

Notre imaginaire est peuplé de robots (entendus comme machines informatisées capables d’interagir avec le monde physique) plus ou moins anthropomorphiques. Mais notre réalité se révèle plus triviale. Les robots parviennent au quotidien à remplir les fonctions complexes que nous leur assignons dotés d’une enveloppe corporelle tenant plus de celle d’un grille-pain que d’un réplicant, à l’image de Google Home ou d’Amazon Echo. Il serait a contrario ardu de concevoir des robots humanoïdes capables d’accomplir des tâches simples comme se mouvoir dans un environnement au sol irrégulier. Une décevante conclusion s’impose : nos robots ne sont pas des individus – prenant à rebours nos représentations, mais un seul méga-individu embarquant un ensemble de systèmes interconnectés et apprenants.

L'empathie artificielle entretient chez nous l’illusion que nous interagissons avec un alter ego nous comprenant. Mais si elle servait originellement à prévenir la gêne de l’altérité, son emploi dépasse dorénavant la simple commodité : l’empathie artificielle agit comme un cheval de Troie propre à nous faire nourrir une « économie des émotions » répondant à une demande sociale.

Le système technologique reflète l’époque qui l’engendre : une époque où l’on n’a pas le temps. Pas le temps de nous occuper des plus faibles - personnes âgées ou handicapées, mais où des robots assistants de vie pourraient à terme le faire. Pas le temps de nouer des relations personnelles avec nos collaborateurs ou nos prospects, mais les logiciels de profiling comme Crystal pourraient pallier cela. Pas le temps de déterminer ce que pensent nos interlocuteurs, mais la reconnaissance faciale pourrait nous y aider…

L’usage à des fins de contrôle social des capacités de profiling et de surveillance des IA nous faisaient redouter l’émergence de Big Brother. L’empathie artificielle, par le confort émotionnel permanent qu’elle se propose de nous procurer, laisse affleurer une nouvelle figure de surveillance : celle de Big Mother, l’interface homme-machine apte à guider nos affects.

Bravo à Irénée Régnauld et à Antoine Saint-Epondyle pour s'être livrés au délicat exercice de la conférence à deux voix. Une réflexion techno-critique et décalée salutaire.

Retrouvez-nous pour notre prochain AI&Society sur notre page Meetup.