Les enjeux d'une anthropomorphisation excessive des agents conversationnels

De la manipulation commerciale aux "deadbots" du deuil, découvrez comment notre tendance à humaniser l'IA soulève des questions éthiques fondamentales pour notre société.

Les enjeux d'une anthropomorphisation excessive des agents conversationnels

Anthropomorphisation « Quelle que soit la nature de son interlocuteur, l'être humain projette sur lui spontanément des traits humains : pensée, volonté, désir, conscience, représentation interne du monde. Ce comportement est qualifié d'"anthropomorphisme". L'interlocuteur apparaît alors comme un individu autonome doté de pensée propre, qu'il exprime à travers sa parole »

Donner un nom à quelque chose ou à quelqu'un c'est le faire entrer instantanément dans sa propre réalité peu importe son statut : animal, humain ou machine. C'est à cet instant que commence l'anthropomorphisation et cela qui cultive cette frontière si fragile entre l'homme et la machine. En réalité, c'est l'objectif même de ces agents : ils sont conçus pour interagir de manière fluide et spontanée avec des humains. En ce sens, il est impératif que ces derniers simulent un langage naturel et parfois même des émotions pour se rapprocher de notre intelligence : l'intelligence humaine.

L'humanisation de ces agents conversationnels posent des questions éthiques et sociales, car, certes, elle facilite l'adoption et l'usage de ces agents, mais jusqu'où peut-on aller sans risquer de tromper l'utilisateur ? Et justement, n'y a-t-il pas intérêt à les tromper à des fins commerciales par exemple ? Est-ce que ces agents ne risquent pas de rendre dépendant des personnes vulnérables comme des enfants dans le domaine de l'éducation ou des personnes âgées ?

Ces enjeux s'étendent même jusqu'au deuil, avec des IA qui imitent la voix et la personnalité des défunts. Ainsi, les enjeux d'une telle anthropomorphisation sont nombreux : la confusion et la co-adaptation homme-machine, la manipulation et l'influence à des fins commerciales mais aussi les questions de transparence, sécurité, liberté et jusqu'au respect de la dignité humaine.

L'anthropomorphisation des agents conversationnels à des fins commerciales

Lorsque nous parlons d'enjeux, d'IA et d'agents conversationnels, nous pensons souvent à la sécurité, aux relations et aux émotions, mais nous ne faisons pas tout le temps le lien avec l'utilisation commerciale de ces technologies qui peuvent être redoutables. En réalité, il n'y a aucun mal à utiliser des agents, des nouvelles technologies pour fluidifier et améliorer le processus de vente d'une entreprise, mais ce n'est pas sans savoir que beaucoup de personnes vulnérables comme des personnes âgées ne sont pas pleinement conscient qu'elles conversent, se confie à un robot parfaitement programmés et non avec la personne à qui elle pense parler.

Un exemple marquant que nous avons pu voir émerger en 2024, c'est celui du Setting IA, une pratique courante sur des réseaux sociaux numérique comme Instagram pour automatiser des conversations, engagées par le robot lui-même, avec des prospects et les convertir en clients, notamment dans la vente de produit d'accompagnements (perte de poids, par exemple).

Les objectifs sont simples : créer un lien de confiance, détecter les besoins et les points de douleurs, les creuser et guider le prospect vers l'achat d'un produit ou d'un service. Le Setting IA ne pose pas de problème en soi, c'est un moyen pour un individu ou une entreprise de gagner du temps sur des tâches très répétitives, mais il faut pleinement avoir conscience que des personnes moins averties (parfois pas si âgées que ça) ou les personnes âgées sont vulnérables.

Les personnes vulnérables face aux agents conversationnels commerciaux sont susceptibles de croire qu'ils parlent à un véritable humain, ne pas identifier des techniques de pression et de persuasion et se sentir obligés de répondre puisqu'après tout, contrairement à un e-mail, ici le but c'est de parler directement dans les messages privés des plateformes ce qui augmente la pression sociale et rend plus difficile d'ignorer ou de refuser une offre.

Le problème ici réside dans l'absence totale de transparence et l'exploitation émotionnelle de personnes vulnérables avec des méthodes de pression psychologique assez subtile.

Les "deadbots" : l'anthropomorphisation au service du deuil

Si l'anthropomorphisation peut servir des intérêts commerciaux et susciter une certaine méfiance quant à la manipulation des individus, elle se retrouve également au cœur de domaines plus sensibles, comme l'accompagnement des personnes en deuil. Ainsi, le même processus incitant un consommateur à se fier à un chatbot pour réaliser un achat peut, dans un autre contexte, aider quelqu'un à traverser une épreuve humaine douloureuse.

Pourtant, à mesure que ces outils se rapprochent du « langage humain », ils soulèvent des interrogations similaires sur la dépendance émotionnelle, la frontière entre l'homme et la machine, et la responsabilité morale de ceux qui les conçoivent. C'est particulièrement vrai lorsqu'il s'agit de simuler la présence d'un proche disparu.

En ce sens, le développement de "deadbot" a débuté, l'objectif de cette technologie est de proposer une alternative pendant le deuil, à celles que nous connaissons déjà : photos, vidéos, écrits du défunt… Le problème éthique en lien avec l'anthropomorphisation qui est soulevé est que l'interlocuteur humain peut avoir l'impression de se trouver réellement en présence de la personne imitée, même s'il est explicitement informé qu'il s'agit d'une machine.

Parle-t-on d'un effet placebo ou d'un vrai soutien thérapeutique ? L'anthropomorphisation pourrait-elle, au contraire, créer des illusions et prolonger la souffrance ou la dépendance affective ? Par ailleurs, nous pouvons nous interroger sur la dignité et le respect dus à la personne décédée : en générant de nouvelles paroles ou idées en son nom, ne risque-t-on pas de porter atteinte à son héritage et de dénaturer sa mémoire ?

Les deadbots : entre réconfort et risques

Lorsqu'on traverse un deuil, on peut ressentir le besoin de maintenir un lien, même fictif, avec la personne disparue. Les deadbots, ces agents conversationnels conçus pour imiter la voix ou la personnalité d'un proche décédé, prétendent répondre à cette attente.

D'un côté, ils offrent la possibilité d'exprimer ses émotions à son propre rythme, sans la contrainte d'un rendez-vous thérapeutique ou la crainte d'un jugement extérieur. On peut ainsi, dans l'intimité de cet échange virtuel, mettre des mots sur sa douleur et rechercher un certain réconfort immédiat.

Cependant, l'anthropomorphisation de ces systèmes comporte le risque de confondre l'illusion avec la réalité. Plus le deadbot reproduit fidèlement les caractéristiques du défunt, plus il devient difficile de percevoir qu'il ne s'agit que d'une machine. Cette proximité risque de prolonger artificiellement la relation et de retarder le véritable travail de deuil : en restant attaché à l'idée de pouvoir encore « converser » avec la personne disparue, on peut nourrir une forme de dépendance émotionnelle ou entretenir une souffrance latente.

Sur le plan éthique, l'acte de « faire parler » un être décédé soulève des questions de dignité et de respect de la mémoire. Certains y voient une simple extension des souvenirs, comparable à des photos ou des enregistrements audio/vidéo, si le consentement du défunt ou de ses ayants droit a été recueilli. D'autres estiment que générer de nouvelles paroles jamais prononcées revient à falsifier son identité et à manipuler son héritage. Cette pratique peut alors heurter des sensibilités familiales, culturelles ou religieuses, et susciter des conflits sur la « vraie » interprétation de la personne disparue.

Au final, les deadbots révèlent la complexité du progrès technologique : ils peuvent constituer un apport potentiel pour soulager la souffrance, tout en posant de sérieuses interrogations quant aux limites de notre rapport à la mort, à la mémoire et à la dignité humaine. Il nous appartient de peser avec discernement les bénéfices et les risques, et de décider dans quelle mesure ce type d'outil répond à notre quête de réconfort tout en préservant la valeur symbolique et morale du souvenir.

Conclusion

L'anthropomorphisation des agents conversationnels, qu'elle soit utilisée à des fins commerciales ou pour atténuer la douleur d'un deuil, révèle à quel point la frontière entre l'humain et la machine devient de moins en moins claire. Ces technologies, en se faisant passer pour des interlocuteurs crédibles voire « humains », peuvent offrir un réel soutien pendant un moment difficile ou dans un cadre commercial : simplifier certaines interactions et faire gagner du temps.

Toutefois, elles soulèvent également des questions éthiques et sociales fondamentales : respect de la dignité, risques de manipulation, dépendance affective... Nous évoluons dans un monde où la technologie progresse beaucoup plus rapidement que notre réflexion collective, il devient essentiel d'anticiper ces évolutions, voire de restreindre son développement avant qu'elle n'impacte trop fortement et bouleverse durablement nos sociétés.