Abstracts

Laurence DEVILLERS

« Robots empathiques : défis technologiques, éthiques et sociétaux »

Donner aux machines des capacités de simulations émotionnelles est indispensables pour construire des systèmes capables d’interagir socialement avec les humains. La reconnaissance des messages sociaux véhiculés par les visages et la voix, en particulier les expressions émotionnelles, est un élément indispensable à la communication et à l’insertion dans toutes les sociétés.

Les modélisations informatiques réduisent le fonctionnement des affects aux froids calculs d’une machine. L’intelligence artificielle peut simuler les affects, elle ne peut pas les faire ressentir à la machine. Cependant, la modélisation informatique des affects amène à se poser la question des conséquences de vivre dans un quotidien environné d’objets simulant des affects que ce soit des programmes appelés “bot”, des chatbots ou encore des robots. L’anthropomorphisme des machines, c’est à dire la tendance à leur attribuer des réactions humaines est bien réel. Il est nécessaire de réfléchir à la co-évolution des humains avec les machines : les machines vont s’adapter à nous et nous allons nous adapter à elles. Notre imaginaire et nos représentations symboliques vont évoluer au contact des machines. Comment éviter l’isolement, la déshumanisation et l’appauvrissement de la vie sociale si les interactions des humains sont réduites à discuter avec des machines affectives.

En latin, affectus désigne traditionnellement un sentiment. En psychologie, le terme affect regroupe l’ensemble des comportements affectifs : émotions, humeurs, dispositions affectives, sentiments. À l’origine des sciences cognitives, le domaine de l’affectivité a souvent été opposé à la cognition désignant les capacités de raisonnement rationnel. Mais cette dichotomie trop simpliste a été remise en cause, les processus affectifs contribuent de façon positive à l’adaptation de l’individu à son milieu et font partie intégrante de sa cognition. Le terme émotion est souvent utilisé sous l’acception plus général d’affect. Klaus Scherer (Scherer, 1984) postule que l’émotion est multidimensionnelle, et qu’elle comporte cinq composantes: (a) une composante d’évaluation cognitive des stimuli ou des situations, permettant le déclenchement et la différenciation des émotions, et qui serait partie intégrante du processus émotionnel ; (b) une composante physiologique (changements corporels), (c) une composante d’expression motrice, tant au niveau de l’expression faciale et vocale, que dans la posture et la gestuelle (d) une composante motivationnelle incluant les tendances à l’action (par exemple, approche et évitement), et enfin (e) une composante de sentiment subjectif qui reflète l’expérience émotionnelle vécue, et qui serait la réflexion des changements se produisant dans toutes les composantes. Il semble important d’insister sur cette dernière composante, la plupart des chercheurs dans le domaine des sciences affectives s’accordent en effet à considérer le sentiment comme l’une des composantes de l’émotion, et non comme l’émotion en tant que telle. Le sentiment est caché à moins que la personne ne l’exprime verbalement, l’émotion a une composante fortement exprimée par le corps.

Suite à l’explosion des travaux scientifiques sur les émotions dans les années 1990, l’émotion est maintenant considérée comme un facteur explicatif déterminant du comportement humain. Antonio Damasio dans “l’erreur de Descartes” (Damasio, 1994) révèle les acquis récents des neurosciences qui suggèrent qu’en l’absence d’émotions, l’humain ne peut être vraiment rationnel. Pour Damasio dans “Spinoza avait raison : joie et tristesse, le cerveau des émotions”, Spinoza préfigure le mieux la neurobiologie moderne de l’émotion et du sentiment. Henri Atlan (Atlan, 2018) confronte la pensée de Spinoza aux connaissances actuelles dans les domaines de la neurobiologie et de l’intelligence artificielle. Le rôle central de l’émotion au sein du système cognitif s’illustre par le fait que l’émotion occupe un “statut privilégié” dans le cerveau humain ; en effet, la plupart des mécanismes psychologiques sont soit nécessaires à l’émotion en tant que telle, soit influencés par l’émotion, soit impliqués dans la modulation de l’émotion. Plus récemment, Antonio Damasio dans son dernier ouvrage “l’ordre étrange des choses” montre que le vivant porte en lui une force irrépressible, ce que Spinoza appelle le “conatus”, l’appétit de vie, et que Damasio nomme l’homéostasie qui est le moteur de la continuation de la vie et en régule toutes les manifestations biologiques, psychologiques et sociales.

À la fin du xxe siècle, au sein des sciences cognitives, émerge un nouveau champ scientifique baptisé les sciences affectives dont l’objectif est de comprendre à la fois les mécanismes sous-jacents à l’affect, comment l’affect contribuent au comportement et à la pensée mais aussi comment modéliser les affects sur machine. Ce domaine de l’affective computing (ou programmation émotionnelle) par les machines prend ses sources dans les travaux de Rosalind Picard au laboratoire du Massachusetts Institute of Technology (Picard, 1997) et regroupe trois technologies : la reconnaissance des affects des humains, le raisonnement et la prise de décision en utilisant ces informations, la génération d’expressions affectives par les machines. La modélisation des affects sur machine ne touche que la composante expressive, il n’y a ni sentiment, ni désir, ni plaisir dans une machine.

Raul HAKLI

« Social action with robots? »

My question is: Can robots be social agents, can they participate in
social action? This leads to questions of definition: What is social?
What is action or an agent? I will look at various proposed conditions
and see what are the prospects of robots being able to satisfy
them. However, I will not suggest a specific answer to the question,
rather I want to map certain alternative positions that one can
take. The aim is not to fix the conditions in advance and then
determine whether robots might be able to satisfy them in order
to remain open to the possibility that ultimately it is the community
of social agents that decides what to include within the
community. Hence, the definition is not to be fixed beforehand but the
extension of the concept « social agent » may be subject to change. It
is possible that in the future our interactions with robots can be
correctly classified as social even though they currently cannot. The
challenge social robotics presents to philosophy is precisely this: By
presenting ever more sophisticated technological artifacts that come
closer and closer to satisfying our criteria for social agency, it
forces us to explicate and articulate our current categories regarding
sociality and agency.