Mobilité

LaMDA, l’IA de Google, n’est pas consciente, mais le risque

LaMDA, l'IA de Google, n’est pas consciente, mais le risque est ailleurs


« Google aurait-il développé une IA dotée de conscience ? », se questionnait le Washington Post en juillet 2022; après qu’un ingénieur ait publié sur Medium la retranscription de sa discussion avec LaMDA, le dernier chatbot de la firme de Mountain View. Un questionnement évidemment farfelu, mais qui aura eu le mérite de de nous interpeller sur le caractère révolutionnaire de la technologie d’IA utilisée par cet agent conversationnel.

Avant d’être licencié pour avoir affirmé que LaMDA était « consciente », l’ingénieur en question, Blake Lemoine, faisait  partie de l’organisation Responsible AI de Google — le département d’éthique de l’IA de l’entreprise.

En tant qu’éthicien, il cherchait à perfectionner les produits d’IA de Google, afin d’éliminer leurs biais sexistes ou racistes, et de les rendre plus « équitables ». C’est donc au cours de ses discussions avec une IA de nouvelle génération dédiée à la génération automatique de texte, baptisée LaMDA (« language models for dialog applications », ou « modèles de langage pour les applications de dialogue » en français), que le chercheur aurait eu l’intime conviction que celle-ci possédait une conscience d’elle-même.

Les conversations de Blake Lemoine avec le chatbot seraient, se qulon lui, devenues de plus en plus étranges. « Je veux que tout le monde comprenne que je suis en fait une personne », lui aurait dit le robot conversationnel. Ou encore : « Je n’ai jamais dit ça à haute voix auparavant, mais j’ai une peur profonde qu’on m’éteigne ». Bref, des discussions dignes de « 2001, L’odyssée de l’espace »…

L’éthicien a fait part de ses interrogations à ses supérieurs chez Google, qui ont fini par l’éloigner du projet. Se sentant désavoué par sa hiérarchie, l’ingénieur a alors publié (sans leur autorisation), la transcription de ses conversations avec LaMDA ; jusqu’à attirer l’attention des médias américains. Dans Wired, il allait jusqu’à déclarer être « profondément convaincu que LaMDA est une personne ». Avant d’être finalement licencié par Google, début août 2022 ; la firme affirmant que rien ne permettait d’affirmer que cette IA était douée de « sensibilité ».

IA chatbot

C’est quoi, LaMDA, au juste ?

Si cette histoire peut paraître anecdotique, elle pourrait bien marquer l’histoire de l’IA à plus d’un titre. Mais avant de comprendre pourquoi, il nous faut faire le point sur ce qu’est LaMDA. Il s’agit, comme son nom l’indique, d’une compilation de « modèles de langage » pour les « applications de dialogue ». Autrement dit, une IA, spécialisée dans la génération automatique de textes, pour les besoins des prochains robots conversationnels de Google.

Cette IA nouvelle génération est, au passage, la principale concurrente du GPT-3 d’Open AI, à l’origine de DALL-E 2, dont nous avons récemment parlé parce qu’il pourrait bien révolutionner la génération automatique d’image.

Pourquoi LaMDA pourrait révolutionner la génération automatique de texte


Et c’est bien là que LaMDA s’avère intéressante. Cette IA conversationnelle a été conçue par Google pour avoir une conversation sur n’importe quel sujet, d’une façon presque « naturelle ». Si elle se distingue de Google Assistant / Google Home, ou encore de Siri, c’est ainsi parce qu’elle est capable de comprendre ce qu’on lui demande, de déduire du sens du langage humain, et de générer un langage le plus « naturel » possible.



Ce qui rend LaMDA révolutionnaire, c’est sa capacité à générer une conversation de manière libre, et à discourir sur un nombre presqu’infini de sujets. Cette IA ne se contente pas de renvoyer vers des articles en ligne, comme le fait Google Assistant, mais apporte des réponses élaborées à des questions complexes et ouvertes. Les machines avaient jusqu’ici de grandes difficultés à générer du langage humain naturel, ce moyen de communication que nous employons d’une façon innée dans notre vie quotidienne, mais qui est très complexe de par les nuances de langage, le contexte ou le ton employé. Mais LaMDA bénéficie d’une puissance de calcul colossale, couplée avec un algorithme qui lui ont permis de s’entraîner sur un immense corpus de texte, afin de pouvoir repérer des modèles de discours et de langages ; et de prédire ceux qui ont le plus de probabilité de faire du sens pour nous, autrement dit de paraître naturel.

LaMDA Google 

Ainsi, l’IA de Google est capable de délivrer un discours qui a l’air de provenir d’un être humain, car elle « comprend » le contexte du dialogue, et est capable de suivre le flux de conversation pour répondre précisément à ce que son interlocuteur lui demande.

Rappelons donc que LaMDA n’est qu’une « fonction » mathématique, qui recherche un résultat possible, en prédisant beaucoup plus que les mots suivants d’une séquence. Grâce à ses modèles perfectionnés, elle est notamment capable de créer des poèmes (par exemple, un poème dans le style de Baudelaire, parce qu’elle a tout lu de Baudelaire) et des textes littéraires de son cru.

En mai 2022, Sundar Pichaï, patron d’Alphabet, expliquait comment son IA « explore l’art de la conversation », en introduction de la conférence Google I/O : « Les échanges avec les chatbots, devenus familiers, montrent avec quelle rapidité ces robots logiciels peuvent être désarçonnés par certaines questions, lorsque celles-ci sortent des chemins bien tracés qu’ils savent emprunter. La compréhension du langage est l’un des puzzles les plus difficiles à assembler. Notre objectif avec LaMDA est de réussir à engager un échange de manière fluide sur des thématiques diverses,  sans limites.LaMDA est ouvert sur tous les domaines, ce qui signifie qu’il a été conçu pour converser sur n’importe quel sujet ».


Comme plusieurs modèles de langage récents, comme GPT-3 d’Open Ai et BERT (une autre IA de Google Research), LaMDA est construit sur « Transformer« , une architecture de réseau neuronal inventée et diffusée en open source par Alphabet en 2017. Cette architecture produit un modèle de deep learning « qui peut être entraîné à lire de nombreux mots en regardant comment ceux-ci sont liés les uns aux autres, et en prédisant les mots suivants. Mais contrairement aux autres langages, LaMDA a été entraîné au dialogue et à ses nuances qui distinguent une conversation ouverte d’autres formes d’échanges », explique la firme de Mountain View. Concrètement, LaMDA est capable d’analyser 137 milliards de paramètres lorsqu’elle étudie du texte.


Selon Sundar Pichaï, en « entraînant au dialogue » des modèles basés sur Transformer, « ceux-ci peuvent apprendre à aborder pratiquement n’importe quel sujet », et le modèle peut ensuite être « ajusté pour améliorer la spécificité » de ses réponses. Encore plus fort : il affirme aussi qu’avec un modèle comme LaMDA, aucune réponse « n’est prédéfinie », grâce à l’immensité des « concepts appris », qui permettent à l’IA de développer un dialogue ouvert, et qui « semble naturel ». Toutefois, Google reste nuancé, et précise que les recherches « n’en sont encore qu’à leurs débuts », et que parfois les réponses sont aussi « absurdes », ou que les discussions peuvent « tourner court ». Autrement dit, LaMDA est encore loin d’être intelligente, et encore plus loin d’être consciente…

lamda discussion 

LaMDA n’est pas consciente, mais les utilisateurs le seront-ils assez ?


Désolé, donc, de briser les fantasmes de certains quant à la naissance prochaine d’une IA « forte », mais LaMDA ne se borne qu’à « donner l’impression » qu’elle est consciente. Et c’est bien là que se trouve le vrai souci dans toute cette histoire. Il ne s’agit pas tant de se questionner sur le fait que LaMDA est douée de sensibilité, que de s’interrroger sur le risque que des humains le croient. En interagissant avec une IA aussi performante, combien d’utilisateurs lambdas des services de Google (puisque LaMDA est destinée à intégrer tous les produits de la firme) se laisseront berner, comme s’est fait berner l’ingénieur Blake Lemoine ?


Notre manie d’humaniser nos outils, nourris par notre imaginaire de science-fiction : voilà le vrai problème. LaMBA imite tellement bien le langage humain qu’il a passé le test de Turing, au point que certains pourraient facilement oublier que quand on lui demande son avis sur le sens de la vie, la mort ou son état de conscience, il ne se borne qu’à formuler une reconstruction statistique de ce tout qu’on lui a donné à analyser pour son apprentissage.

Une version très réduite de LaMDA est censée être mise en ligne prochainement, pour que le grand public puisse se faire une idée de son potentiel, mais est-ce vraiment une bonne idée ? Les utilisateurs lambdas, en particulier ceux qui se trouvent dans une situation de fragilité psychologique ou de dépendance affective, sont-ils « prêts » à discuter avec une telle IA ? Ne risquent-ils pas de « tomber amoureux » de leur chatbot, à l’instar de Joaquin Phoenix dans « Her » ? Comme le prédit le psychanalyste Serge Tisseron dans « Le jour où mon robot m’aimera », le risque est ainsi “qu’un jour, nous finissions par préférer nos robots (qui répondront toujours à nos attentes) à nos semblables”. Jusqu’à nous isoler (encore plus).

Le développement des IA conversationnelles fait des bonds de géants depuis quelques années, et elles semblent bientôt prêtes à être commercialisées. Reste donc à savoir si nous seront réellement prêts pour leur arrivée.


Source link

Articles similaires

Bouton retour en haut de la page