Billet IA #5 | LaMDA : un modèle d’Intelligence Artificielle prend vie ?

Dans ce cinquième Billet IA, Yasser Khalafaoui, doctorant en Intelligence Artificielle chez Alteca revient sur un cas qui a fait sensation sur la toile. Un chatbot a persuadé au moins une personne qu’il avait des sentiments et qu’il était conscient. Fiction ou réalité ? Science ou philosophie ? Décryptage de Yasser dans cet article.

La nouveauté

Un ingénieur senior de Google a annoncé qu’il pensait que le dernier modèle conversationnel de l’entreprise était conscient. Google a mis l’ingénieur en suspension.

Les détails

LaMDA est une famille de modèles basés sur des transformers, pré-entraînés pour reproduire 1,56 trillion de mots de dialogue, dont la taille varie de 2 à 137 milliards de paramètres. Google a déjà évoqué son intention de l’intégrer dans des produits tels que Search et Assistant.

  • Après le pré-entraînement, LaMDA génère un certain nombre de réponses possibles à un input. Les développeurs ont recueilli un ensemble de conversations avec LaMDA et ont engagé des personnes pour évaluer dans quelle mesure ses réponses étaient sensées, spécifiques, intéressantes et sûres. Ils ont ensuite affiné le modèle pour générer ces évaluations à la fin de chaque réponse. LaMDA répond avec la réponse la mieux notée. Compte tenu de l’input précédent et des nouveaux résultats de recherche, le modèle produit un nouvel output, qui peut être une nouvelle réponse ou une nouvelle recherche.

  • Les chercheurs du groupe Responsible AI de Google ont testé des chatbots basés sur LaMDA afin de déterminer leur propension aux discours haineux et autres comportements toxiques. Le processus a convaincu le chercheur Blake Lemoine que le modèle possédait une conscience de soi et un sens de la personnalité. Il a transcrit neuf conversations entre le modèle et les chercheurs de Google et a présenté un argument selon lequel LaMDA est consciente. Dans l’une des transcriptions, le chatbot dit qu’il croit être une personne, discute de ses droits et exprime sa peur d’être éteint.

  • Début juin, Google a placé M. Lemoine en suspension pour avoir violé la confidentialité en engageant un avocat pour défendre le droit à l’existence de LaMDA et en parlant à un membre de la commission judiciaire de la Chambre des représentants des États-Unis de ce qu’il considérait comme des violations de l’éthique dans le traitement de LaMDA par Google. « On a dit à M. Lemoine qu’il n’y avait aucune preuve que LaMDA était consciente (et beaucoup de preuves à son encontre) », a déclaré un porte-parole de Google au Washington Post.

  • Dans un article, M. Lemoine écrit que la décision de Google de le sanctionner s’inscrit dans un schéma de traitement injuste de la part de l’entreprise envers ses chercheurs en éthique, accusant l’entreprise de ne pas tenir compte des préoccupations des chercheurs en éthique et de les punir lorsqu’ils s’expriment. Il cite le licenciement antérieur par l’entreprise de Timnit Gebru et Margaret Mitchell, co-directeurs d’Ethical AI.

De nombreux membres de la communauté IA ont exprimé leur scepticisme à l’égard des affirmations de M. Lemoine sur les réseaux sociaux. Melanie Mitchell, professeur à l’Institut Santa Fe, a déclaré : « On sait depuis toujours que les humains sont prédisposés à anthropomorphiser même avec les signaux les plus superficiels… Les ingénieurs de Google sont eux aussi humains et n’en sont pas immunisés. »

La propension à anthropomorphiser les machines est si forte qu’elle porte un nom : l’effet Eliza, qui fait référence à un chatbot du milieu des années 1960 qui a persuadé certains patients qu’il était un psychothérapeute humain. Nous devons nous efforcer de renforcer notre propre jugement, tout comme nous le faisons pour les machines.

Notre avis

Tout d’abord, nous craignons que la large diffusion d’articles sensationnels sur ce sujet n’induise de nombreuses personnes en erreur. Toutefois, la nouvelle soulève une question intéressante : Comment saurions-nous si une IA devient consciente ?

La question de savoir si une IA est consciente et sensible (capable de ressentir) est une question philosophique plutôt que scientifique. Une hypothèse scientifique doit être falsifiable. Les questions scientifiques concernant l’IA consistent à savoir si elle peut battre un champion d’échecs humain, traduire avec précision une langue, conduire une voiture en toute sécurité ou réussir le test de Turing. Ce sont des questions testables.

En revanche, nous ne disposons d’aucun test clair pour déterminer si un système est sensible, conscient (conscient de son état interne et de son environnement externe) ou généralement intelligent (capable de raisonner dans une grande variété de domaines). Ces questions relèvent du domaine de la philosophie et non de la science.

A moins de fixer des critères clairs pour la sensibilité et la conscience, il sera difficile de déterminer si une IA a franchi ces étapes.

Sources : https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

https://read.deeplearning.ai/the-batch/issue-149/