Mobilité

Décoder l’esprit : Quand l’IA transforme les pensées en

Décoder l’esprit : Quand l'IA transforme les pensées en texte

Lire dans les pensées grâce à une machine, juste un rêve de fan de science-fiction, qui ne deviendra jamais réalité ? Plus forcément. Qu’il s’agisse de commander une machine ou de parler par la pensée via une sorte de téléphathie numérique, des casques et des implants sont, très concrètement, en train d’être conçus par des chercheurs, depuis déjà plus de 5 ans. Et l’IA pourrait accélérer les choses.

Au-delà des interfaces homme-machine qui permettent déjà de contrôler, à distance, des objets grâce à des puces implantées dans le cerveau ou des électrodes apposées sur le cuir chevelu, des chercheurs en neurosciences et en neurologie ont déjà permis à deux humains de communiquer à distance, grâce à des « casques d’électro-encéphalographie » et à des « robots de stimulation magnétique transcrânienne« . 

telepathie0 

Casques et télépathie par implants

En 2014, une équipe de la Harvard Medical School (à Boston) et de l’Université de Barcelone ont conçu un casque, doté d’électrodes, qui enregistre les « signaux cérébraux » de son porteur. Celui-ci pense par exemple à un message simple, comme « bonjour » ou « salut ». Puis un ordinateur « convertit » ces impulsions électriques en code binaire (des 0 et des 1), et un message est envoyé sous cette forme à un sujet humain « récepteur », via Internet. De l’autre côté, un autre ordinateur transmet le « message » au cerveau d’une autre personne, sous forme de « flashs lumineux ». Le « récepteur » est alors capable de comprendre le message qui lui est envoyé en interprétant les signaux lumineux, sans entendre ni voir les mots eux-mêmes. Un genre de « code morse » mental, en quelque sorte. 

Les chercheurs impliqués dans cette expérience ont mêlé deux technologies : l’électro-encéphalographie (EEG) et la stimulation magnétique transcrânienne (rTMS). D’un côté, l’EEG mesure l’activité électrique du cerveau par des électrodes placées sur le cuir chevelu, souvent représentée sous la forme d’un tracé appelé « électro-encéphalogramme ». De l’autre côté, la rTMS est une technique médicale de stimulation transcrânienne (TMS), d’abord utilisée pour le diagnostic et le traitement de certaines affections psychiatriques et neurologiques, qui permet aujourd’hui de traiter les dépressions modérées à sévères, ou la maladie d’Alzheimer. Selon les scientifiques à l’origine de cette expérience, il s’agissait alors d’un « premier pas » dans l’exploration « d’autres moyens de communication », c’est-à-dire « d’interfaces directes » entre le cerveau et l’ordinateur, et qui pourraient permettre un jour « une communication directe de cerveau à cerveau de façon routinière ». Permettant notamment de (re)donner la parole à des personnes muettes, ou de permettre à ceux qui ne voient plus et/ou n’entendent plus de capter des messages.

En 2018, des scientifiques du MIT ont de leur côté créé une interface cerveau-machine capable « d’entendre » et de « comprendre » les mots qu’une personne a en tête, sans même les avoir prononcés. Le casque en question, baptisé « AlterEgo », pouvait selon eux « analyser » nos pensées, et nous « répondre » via des dispositifs connectés en Bluetooth. Le casque AlterEgo était là encore muni d’électrodes et de capteurs, placés au niveau de la mâchoire et du visage, qui aspirent les signaux neuromusculaires. Mais ce qui était nouveau par rapport à l’expérience de 2014, c’était l’utilisation d’un programme d’IA, qui analysait les mots « pensés ». Grâce au Machine learning, ce dispositif était ainsi capable de comprendre la « subvocalisation » en étudiant les signaux électriques envoyés par le cerveau dans les muscles qui commandent la parole. Car même si notre « voix intérieure » reste dans notre tête, le cerveau envoie des signaux électriques (invisibles) dans les muscles de notre visage.

En plus d’entendre les mots dans notre tête, AlterEgo peut aussi, selon l’étude, nous répondre. AlterEgo utilise la conduction osseuse (ostéophonie) pour communiquer avec l’utilisateur, permettant ainsi une sorte d’interaction silencieuse. A l’époque, Arnav Kapur, qui dirigeait les recherches au MIT Media Lab, avait toutefois admis que le dispositif n’était utilisable que pour des tâches très basiques, comme la navigation dans une plateforme de streaming ou le déplacement de fichiers sur un écran ; indiquant qu’il faudrait  » collecter davantage de données et enrichir le vocabulaire des bases de données », avant que l’appareil puisse être testé dans la vie quotidienne.

Depuis plus de 5 ans, d’autres chercheurs, emmenés par des gourous transhumanistes, planchent de leur côté sur de potentiels implants cérébraux : à travers son entreprise Neuralink, Elon Musk, patron de SpaceX et de Twitter, finance ainsi depuis 2018 le développement d’un dispositif bionique qui serait intégré dans le cerveau (sous forme de puces minuscules « collées » sur les neurones), et qui aurait pour mission « d’optimiser la production mentale » d’une personne grâce à une interface cerveau-ordinateur. Théoriquement, avec un tel dispositif dans votre tête, vous seriez capable, entre autres, d’accéder à Internet et de communiquer par la pensée.

Evidemment, tous ces systèmes demeurent, même en 2023, loin de permettre de  » lire dans les pensées » de la façon dont nous l’imaginons : ces machines, très invasives, mettent entre 1 et 2 heures pour « décoder » deux ou trois mots… avec un taux d’erreur variant entre 1 et 15 %. 

L’IA générative à la rescousse

Mais les progrès de l’intelligence artificielle sont là, et devraient bientôt permettre d’améliorer considérablement ce type de système. Pendant que ChatGPT, Midjourney et les IA génératives entrent peu à peu dans notre quotidien d’une façon récréatives, des chercheurs utilisent en effet des technologies d’intelligence artificielle proches de ChatGPT pour « déchiffrer » les pensées humaines d’une façon non invasive, et sans se limiter à quelques mots.

Les chercheurs du Biomedical Imaging Center de l’Université du Texas, à Austin, ont ainsi combiné le moteur GPT d’Open AI avec des mesures d’Imagerie par Résonance Magnétique fonctionnelle (IRMf) pour « décoder » la « parole continue » d’un individu. Cette avancée significative, présentée par les scientifiques américains comme un pas vers la « lecture de l’esprit », s’appuie sur un « décodeur » de langage capable de transformer les pensées de quelqu’un en texte.

Concrètement, un appareil d’IRMf détecte l’activité cérébrale humaine, puis un décodeur reposant sur GPT-1 ( le prédécesseur de la technologie d’IA utilisée par ChatGPT) exploite les « motifs cérébraux » observés. Selon les chercheurs, ce décodeur est en mesure d’interpréter des textes narratifs que les sujets humains ont vu, entendu, ou même simplement imaginé. Bien que la technologie en soit encore à ses premiers stades, les scientifiques espèrent, tout comme ceux de Harvard en 2014, qu’elle pourrait un jour permettre aux personnes atteintes de troubles neurologiques affectant le langage de « communiquer de manière claire avec le monde qui les entoure ».

chercheurs austin decodeur langage 

Un « décodeur de langage »

Cela constitue donc une première dans le domaine, puisque la « parole continue » est désormais reconstruite (modélisée par l’IA) à partir de l’activité cérébrale humaine sans avoir recours à des implants cérébraux invasifs. En comparaison avec les « interfaces cerveau-ordinateur » traditionnelles qui se concentrent sur la partie du cerveau qui contrôle la bouche lors de la formation des mots, le décodeur de langage de cette équipe de recherche « opère à un niveau très différent », selon les chercheurs. « Notre système agit véritablement au niveau des idées, de la sémantique, du sens », explique Alexander Huth, neuroscientifique à l’université du Texas et membre de l’équipe de recherche. Cette étude marque « un tournant majeur dans la manière dont nous envisageons la communication et l’interaction avec l’intelligence artificielle », ajoute-t-il. 

« Notre recherche est la première à déchiffrer un langage continu – c’est-à-dire plus que des mots isolés ou des phrases complètes – à partir de données cérébrales non invasives que nous collectons grâce à l’imagerie par résonance magnétique fonctionnelle (IRMf) », résume de son côté Jerry Tang, membre du Biomedical Imaging Center d’Austin. Les chercheurs ont mis au point leur « décodeur de langage » grâce à la collaboration de trois participants humains qui ont chacun passé 16 heures dans une machine d’IRMf à écouter des histoires. Les scientifiques ont entraîné un modèle d’IA (basé sur le moteur GPT), avec des commentaires Reddit et des récits autobiographiques, afin d’associer les caractéristiques sémantiques des récits enregistrés à l’activité neuronale enregistrée dans les données d’IRMf. Le modèle d’IA a ainsi appris à lier des mots et des phrases spécifiques à certains motifs cérébraux.

Une fois cette phase de l’expérience terminée, le cerveau des participants a été « scanné » avec l’IRMf, pendant qu’ils écoutaient de nouvelles histoires non incluses dans le jeu de données d’entraînement. Selon l’étude, les décodeurs ont réussi à transcrire les narrations audio en texte au fur et à mesure que les participants écoutaient. 

pensees austin

Des traductions imprécises, mais « l’essence » est bien captée

Il faut toutefois nuancer, là encore, et ne pas s’imaginer que les chercheurs texans ont inventé une machine à lire dans les pensées. Les chercheurs ont, concrètement, réussi à identifier comment les mots, les phrases et leurs significations provoquaient des réactions dans les régions cérébrales connues pour le traitement du langage. Ils ont introduit ces informations dans un modèle linguistique basé sur un réseau neuronal, qui utilise GPT ; ce modèle ayant été formé à prédire la réaction du cerveau de chaque individu à un discours perçu, réduisant les options jusqu’à identifier la réponse la plus appropriée. Selon l’étude, le décodeur est capable de « retrouver l’essence de ce que l’auditeur percevait » lorsqu’il écoutait des histoires. L’essence, oui, mais pas les mots exacts. Ainsi, les interprétations de l’IA empruntaient souvent des structures sémantiques différentes de celles des enregistrements d’origine. Par exemple,  lorsque le participant entendait la phrase > »Je n’ai pas encore mon permis de conduire », le modèle retranscrivait : « Elle n’a même pas encore commencé à apprendre à conduire ». En outre, le décodeur aurait éprouvé des difficultés avec les pronoms personnels tels que « je » ou « elle ».

Ces traductions imprécises s’expliquent précisément parce que, contrairement aux « interfaces cerveau-ordinateur » classiques, qui ont recours à des électrodes et qui tentent de deviner un texte à partir du mouvement de la bouche d’une personne quand elle tente de parler, les chercheurs d’Austin se sont principalement intéressés à la circulation sanguine dans le cerveau, captée par des appareils d’IRMf. « Notre système opère à un niveau totalement différent. Plutôt que de se focaliser sur une petite fonction motrice, notre système travaille à l’échelle des idées, de la sémantique et du sens. Voilà ce qui importe », affirme Alexander Huth.  « C’est la raison pour laquelle je pense pouvoir comprendre le point de vue, même si je ne saisis pas les termes exacts qu’une personne a entendus ou prononcés », explique le neuroscientifique. La même idée, en gros, mais exprimée différemment.

Selon l’étude, même quand les participants imaginaient leurs propres histoires ou regardaient des films muets, le décodeur était toujours en mesure de capter l’essentiel. « Cela indique que nous décodons quelque chose de plus profond que le langage, et que nous convertissons en langage », note Alexander Huth. Comme l’IRMf est trop lente pour détecter des mots individuels, elle recueille plutôt un « mélange, une agglomération d’informations sur quelques secondes. Ainsi, nous pouvons observer comment l’idée se développe, même si les mots exacts sont perdus », poursuit le chercheur.

Bien que le décodeur ait donné des résultats plus précis dans les tests portant sur des enregistrements vocaux que dans ceux portant sur des discours fictifs, il a tout de même été en mesure d’extraire de l’activité cérébrale des détails de base de la pensée implicite. Par exemple, si le sujet imaginait la phrase suivante : « J’ai pris un chemin de terre à travers un champ de blé, j’ai traversé un ruisseau, puis je suis passé devant des maisons en rondins », le décodeur répondait : « Il a dû traverser un pont pour aller de l’autre côté et un très grand bâtiment au loin ».

A noter que les participants à cette étude ont dû effectuer tous ces tests sur un appareil d’IRMf, un instrument de laboratoire encombrant et immobile. Par conséquent, le « décodeur » développé à Austin est encore loin de pouvoir être utilisé comme un « traitement pratique » pour les patients atteints de troubles de la parole. Mais les chercheurs américains prévoient d’améliorer l’appareil à l’avenir pour le rendre plus maniable, notamment en intégrant des capteurs d’imagerie spectroscopique proche infrarouge (fNIRS).

 tang prepping mri participant2400x1920%20 %20copie 

Alerte éthique

Au-delà de la faisabilité technique de tous ces projets et dispositifs, le risque serait que ces technologies tombent entre de mauvaises mains. Qu’il s’agisse d’entreprises privées, d’états dictatoriaux ou de hackers. En 2019, une étude de la Royal Society, une organisation scientifique britannique, prévenait notamment que le fait de connecter le cerveau à un ordinateur pourrait « compromettre la vie privée » des individus.

Dans leur étude, les chercheurs du Biomedical Imaging Center d’Austin reconnaissent eux aussi que le risque serait qu’à terme, la lecture et la transcription des pensées humaines par des machines puisse être réalisés sans le consentement des individus. Notamment par des gouvernements ou des employeurs. Face à ces inquiétudes justifiées, l’équipe à l’origine du décodeur a mené des tests démontrant que leur appareil ne pouvait pas fonctionner sur un individu sans un entraînement préalable basé sur son activité cérébrale spécifique. Autrement dit, leur décodeur ne pourrait pas être utilisé sur des personnes n’ayant pas autorisé un entraînement sur leur activité cérébrale pendant de longues heures dans un scanner d’IRMf. 

Les trois participants ont également réussi à « déjouer » le système. Pour cela, ils réalisaient des calculs mentaux dans leur tête tout en écoutant un podcast, ou imaginaient des animaux tout en entendant une histoire ; réussissant ainsi à « saboter » le décodeur.

S’ils estiment que leur technologie pourrait ouvrir la voie à de nouveaux modes de communication et espèrent accélérer le processus pour décoder les scanners cérébraux en temps réel, les chercheurs plaident finalement pour la mise en place de régulations afin de garantir la confidentialité des personnes souffrant de troubles mentaux, et d’établir des politiques visant à protéger la vie privée intellectuelle des individus.

ia consciente 05 

« L’analyse que nous avons menée sur la protection de la vie privée suggère que le fonctionnement et l’utilisation des décodeurs nécessitent la collaboration de la personne concernée », notent les scientifiques dans leur étude. « Néanmoins, il se pourrait que les avancées futures permettent aux décodeurs de se passer de ces exigences. De plus, même si les prédictions des décodeurs sont inexactes sans la participation de l’individu, elles pourraient être utilisées à mauvais escient. Ces prédictions pourraient être délibérément trompeuses », ajoutent-ils. C’est pourquoi les chercheurs concluent qu’il est « crucial de sensibiliser le public aux risques associés à la technologie de décodage cérébral et d’établir des politiques visant à protéger la vie privée ».

« Si un casque lit dans votre tête, alors la police, l’ar­­mée ou vos parents pour­­ront-ils s’en servir ? », se questionne de son côté Mary Lou Jepsen, ancienne ingénieure chez Google X et Facebook, et fondatrice d’Openwater, une société spécialisée dans l’imagerie par résonance magnétique (mais seulement dans un but médical). « Ces technologies, clairement capables de lire nos pensées, auront de profondes implications éthiques et juridiques. Or, comme de nombreuses autres technologies, les interfaces neuronales grand public semblent destinées à atteindre les consommateurs avant d’être matures. Elles sont pour l’instant non invasive, et elles devront en tout cas le rester », conclut-elle, appelant tout simplement à la prudence et à la prise de recul. L’IA pourrait-elle accéder à nos pensées un jour ? Peut-être. Mais la question la plus pressante est : le devrait-elle ? Et si oui, dans quelles limites ? En fin de compte, ce n’est donc pas juste une question de ce que la technologie peut faire, mais aussi, encore et toujours, de ce qu’elle devrait faire. 

 


Source link

Articles similaires

Bouton retour en haut de la page