La grande illusion de la personnalité de l’intelligence artificielle

        Meta a annoncé mercredi l'arrivée d'une intelligence artificielle qui équipera des personnalités proches de certaines célébrités et avec qui il sera possible de discuter.  Cet anthropomorphisme est présenté comme une évolution dérangeante de ChatGPT et autres, et peut être dangereux.        </p><div>

                <p>Pour Meta (anciennement Facebook), ce sont des IA « amusantes », et pour d’autres, cela pourrait être la première étape vers la création de « l’artefact le plus dangereux de l’histoire de l’humanité », pour paraphraser le philosophe américain Daniel C. Dennett dans son essai Against « Counterfeit ». " Pour les particuliers. »

Mercredi 27 septembre, le géant des réseaux sociaux a annoncé le lancement de 28 chatbots (agents conversationnels) censés avoir leur propre personnalité et conçus spécifiquement pour les jeunes. Il y aura Victor, le soi-disant triathlète qui est capable de « vous motiver jusqu’à ce que vous fassiez de votre mieux », et Sally, « l’amie énergique qui saura vous dire quand prendre une profonde respiration ».

Les internautes pourront également discuter avec Max, « un cuisinier expérimenté qui saura donner de bons conseils », ou se lancer dans un duel verbal avec Louise, qui n’a pas peur d’être « provocatrice » dans sa façon de parler.

Un chatbot comme Paris Hilton

Pour renforcer l’impression d’être adressé à un personnage spécifique plutôt qu’à un fouillis d’algorithmes, Meta a donné un visage à chacun de ses chatbots. Grâce à des partenariats avec des célébrités, ces robots ressemblent au pilote d’avion américain Paris Hilton, à la star de TikTok Charli D’Amelio ou encore à la joueuse de tennis nippo-américaine Naomi Osaka.

Ce n’est pas tout. Meta a ouvert des comptes Facebook et Instagram pour chacune de ses IA afin de leur donner une présence en dehors des interfaces de discussion, et travaille à leur donner la parole dès l’année prochaine. La société mère de l’empire de Mark Zuckerberg s’est également mise à la recherche de « scénaristes spécialisés dans la création de personnages » afin de peaufiner ces « personnages ».

Lire aussiComment le monstre de Lovecraft est devenu un symbole du côté obscur de l’IA comme ChatGPT

Meta peut présenter ces 28 chatbots comme un projet innocent comme une distraction massive pour les jeunes internautes, et tous ces efforts pointent vers un projet ambitieux visant à construire une intelligence artificielle « aussi proche que possible des humains », affirme Rolling Stone.

Cette course aux « faux individus » inquiète de nombreux observateurs des développements récents des recherches sur les grands modèles de langage (LLM) comme ChatGPT ou Llama 2, son homologue made in Facebook. Sans aller jusqu’à Daniel C. Dennett, qui appelait à l’emprisonnement de ceux qui, comme Mark Zuckerberg, s’aventurent dans cette voie, « il existe une partie des penseurs qui condamnent l’approche délibérément trompeuse de ces grands groupes », affirme Ebo van de Poel. , professeur d’éthique et de technologie à l’université de Delft (Pays-Bas).

« L’intelligence artificielle ne peut pas avoir de personnalité. »

Cet expert affirme que l’idée d’agents conversationnels « dotés de personnalité est en réalité littéralement impossible ». Les algorithmes sont incapables de manifester « une intention dans leurs actions ou un « libre arbitre », deux propriétés qui peuvent être considérées comme étroitement liées à l’idée de personnalité », explique Ebo van de Poel.

Les méta et autres peuvent, au mieux, imiter certaines des caractéristiques qui composent la personnalité. « Il devrait être techniquement possible, par exemple, d’apprendre à un chatbot à parler comme son modèle », explique Ebo van de Poel. Ainsi, l’IA Amber de Meta, censée ressembler à Paris Hilton, aura probablement les mêmes tics linguistiques que son alter ego humain.

La prochaine étape consistera à former les titulaires d’un LLM à exprimer les mêmes points de vue que leur modèle. Le comportement est beaucoup plus complexe à programmer, car il implique de créer une sorte d’image mentale honnête de toutes les opinions d’une personne. Le danger est aussi que ces chatbots dotés de personnalité commettent des erreurs. Le Wall Street Journal, qui a pu consulter les documents internes du groupe, a appris que l’un des agents de chat testés par Meta avait rapidement exprimé des opinions « misogynes ». Un autre a commis le péché mortel de critiquer Mark Zuckerberg et de faire l’éloge de TikTok…

Pour construire ces personnages, Meta explique qu’il a décidé de leur fournir « des histoires personnelles uniques ». En d’autres termes, les créateurs de ces robots ont écrit leur propre biographie dans l’espoir que ces robots en déduisent une personnalité. «C’est une approche intéressante, mais il aurait été utile d’ajouter des psychologues à ces équipes pour mieux comprendre les traits de personnalité», souligne Anna Strasser, philosophe allemande particulièrement impliquée dans un projet visant à créer un grand modèle linguistique capable de philosopher.

Le méta-anthropomorphisme de son IA s’explique facilement par l’attrait du profit. « Les gens seraient certainement prêts à payer pour pouvoir parler et avoir une relation directe avec Paris Hilton ou une autre personne célèbre », résume Anna Strasser.

Plus un utilisateur se sent connecté à un humain, « plus il se sent à l’aise, plus il reste longtemps et plus il a de chances de revenir », explique Ebo van de Poel. Dans le monde des réseaux sociaux, le temps que nous passons sur Facebook et ses publicités représente de l’argent.

Outil ou personne ?

Il n’est pas non plus surprenant que Meta se soit lancé dans la recherche d’une IA « personnelle » avec des chatbots ciblant ouvertement les adolescents. «Nous savons que les jeunes sont plus susceptibles de tomber dans l’anthropomorphisme», souligne Anna Strasser.

Mais pour les experts interrogés, Meta joue un jeu dangereux en se concentrant sur les « caractéristiques humaines » de leurs machines IA. «J’aurais vraiment préféré que ce groupe consacre plus d’efforts à mieux expliquer les limites des agents conversationnels, plutôt que de tout faire pour les rendre plus humains», déplore Ebo van de Poel.

<

p class= »a-read-more »>Lire aussiMusique et intelligence artificielle : « L’idée de remplacer l’artiste est un fantasme. »

L’émergence de ces puissants LLM a déstabilisé « la dichotomie entre ce qui relève du domaine de l’outil ou de la chose et ce qui fait partie de la vie. Les ChatGPT sont des agents tiers qui se positionnent entre les deux extrêmes », explique-t-il. Anna Strasser. Les humains apprennent encore à se comporter face à cet OVNI, et en donnant l’impression que l’IA pourrait avoir une personnalité, Meta suggère de la traiter comme un autre être humain plutôt que comme un outil.

C’est dangereux car « les internautes ont tendance à faire confiance à ce que diront ces systèmes d’IA », note Ebo van de Poel. Et ce n’est pas qu’un risque théorique : en Belgique, un homme a fini par se suicider en mars 2023 après avoir discuté pendant six semaines des conséquences du réchauffement climatique avec une intelligence artificielle.

Surtout, si tout est fait pour brouiller les frontières entre le monde de l’intelligence artificielle et le monde des humains, « cela pourrait détruire la confiance dans tout ce qu’on trouve sur Internet car on ne saura plus qui a écrit quoi », craint Anna Strasser. Pour le philosophe Daniel C. Dennett, la porte est ouverte à « la destruction de notre civilisation, car le système démocratique dépend du consentement éclairé des gouvernés (qui ne peut être obtenu si l’on ne sait plus à quoi et à qui faire confiance) », écrit-il dans son article. Alors peut-être s’agit-il de discuter avec une intelligence artificielle qui imite… Paris Hilton et la destruction de la civilisation moderne à portée de clic ?

            </div>        (Tags à traduire) Eco/Technologie 

Vous aimerez aussi...

Laisser un commentaire

%d blogueurs aiment cette page :