Mobilité

IA : bientôt des robots médecins made in Google ?

IA : bientôt des robots médecins made in Google ?

Le buzz autour de ChatGPT, le chatbot boosté à l’IA d’OpenAI, est tel qu’Alphabet a accéléré sa stratégie en la matière. Le géant du Web a notamment annoncé Bard, son propre agent conversationnel concurrent, destiné à être intégré à Google.

Tous les regards sont tournés vers ce duel à venir, tandis que Microsoft attise le feu avec sa propre version de ChatGPT intégrée à Bing. Avec sa filiale Deepmind, Google dispose toutefois d’autres atouts dans sa manche en matière d’IA, et ne s’intéresse pas qu’à l’application, encore floue, des chatbots censés révolutionner la recherche d’informations générales.

L’une des applications sur lesquelles planchent très sérieusement Google et Deepmind concerne la santé. Les chercheurs d’Alphabet ont ainsi développé un chatbot médical, qu’ils ont baptisé « MedPaLM » (« Modèle de Langage pour la Médecine »). Dans leur étude, diffusée sur Arvix, ils expliquent avoir conçu un algorithme dont le but est de fournir des informations « précises et utiles » sur des sujets médicaux, en utilisant pour cela des bases de données spécialisées.

Des « médecins virtuels » pour combler les déserts médicaux ?

Concrètement, l’algorithme utilise de vastes bases de données open source, qui contiennent des milliers de questions-réponses alimentées par des patients et des professionnels de santé : MedQA, MedMCQA, PubMedQA, LiveQA, Medication QA et MMLU. Les chercheurs ont aussi créé leur propre jeu de données de requêtes médicales, HealthSearchQA. Puis ils ont intégré le tout dans une plate-forme de questions-réponses médicales, baptisée MultiMedQA. Les résultats ainsi combinés sont traités par leur IA PaLM ; un grand modèle de langage (LLM) conçu par Google qui compte 540 milliards de paramètres, soit 3 fois plus que le réseau neuronal GPT-3 d’OpenAI.

medecins IA 

Le résultat est un chatbot, qui permet à l’utilisateur de poser une question, notamment avec la description de ses symptômes, et de recevoir en retour une réponse sous forme de pré-diagnostic et de pistes de traitement. En tant que modèle de langage étendu (ELM), MedPaLM est censé générer des réponses appropriées dans un langage clair, proche de celles d’un humain. De là à le considérer comme un « médecin virtuel », il n’y aurait donc qu’un pas à franchir, pour peu que ses résultats soient fiables.

En France, notamment, il pourrait s’agir d’une solution (avec la téléconsultation) au problème toujours vivace des déserts médicaux. Il s’agirait aussi d’un moyen de combattre la « bobologie », afin de désengorger les urgences des hôpitaux. MedPaLM n’est pas le seul robot conversationnel à être actuellement développé dans ce sens. Des startups comme Doctolib et Qare planchent sur le sujet pour la phase interrogatoire des téléconsultations, tandis que les chatbots Symptomate, OneRemission, Youper, Florence, Healthily, Docteur Clic, HumanDx ou encore Babylon Health, sont autant d’applications « d’aide au diagnostic » qui ont pour but d’alléger la charge des professionnels de santé.

robot medecin 

Des réponses globalement « correctes »… 

Qu’il s’agisse de ces chatbots ou de MedPaLM, l’idée n’est donc pas de remplacer les médecins, mais de fournir des informations fiables et sûres (sur des cas basiques) qui permettront à l’internaute de décider s’il doit, oui ou non, consulter un médecin. Alors, quelle est justement la fiabilité de MedPaLM ?

L’équipe de recherche de Google / Deepmind a comparé les performances du chatbot médical à celles de professionnels de santé, en leur demandant de répondre à des questions similaires. Les résultats, analysés par un groupe de médecins indépendants, montrent que 92,6 % des réponses fournies par MedPaLM étaient « correctes », tandis que 92,9 % l’étaient de la part des médecins humains. Soit une différence de seulement 0,3 %.

Les réponses de MedPaLM sont aussi, selon les chercheurs, moins dangereuses pour les patients que celles fournies par les professionnels de santé. Ainsi, 5,8 % des réponses du chatbot ont été évaluées comme pouvant « potentiellement nuire » aux patients, contre 6,5 % pour celles fournies par des médecins en chair et en os. 

MedPaLM 

Des résultats assez impressionnants donc s’ils sont véridiques. « MedPaLM a montré des performances encourageantes sous plusieurs aspects, notamment la précision scientifique et clinique, la compréhension écrite, le rappel des connaissances médicales, le raisonnement médical et l’utilité, par rapport à Flan-PaLM »résume l’une des ingénieures de Google Research, Shek Azizi, sur Twitter. 

… Mais encore inférieures à celles des humains 

Pour l’équipe de recherche, MedPaLM pourrait à terme « jouer un rôle clé » dans les pré-diagnostics cliniques… après que lui soient apportées « quelques améliorations ». En effet, selon les chercheurs, les réponses humaines restent globalement « meilleures » que celles fournies par le chatbot. « Si ces résultats sont prometteurs, le domaine médical est complexe. D’autres évaluations sont nécessaires, notamment en ce qui concerne les aspects liés à la justice, l’équité et les biais », écrivent-ils dans leur étude.

Sur Twitter, Shek Azizi ajoute que « bien que les réponses fournies par Med-PaLM montrent une amélioration encourageante » par rapport à de précédents modèles (Flan-PaLM, par exemple, n’apportait que 60 % de réponses « correctes »), « elles restent en deçà de celles fournies par l’ensemble des cliniciens ». Selon elle, « des recherches supplémentaires sont nécessaires avant que MedPaLM puisse être considéré comme viable pour des applications cliniques. »

Il semble donc difficile de se contenter des « réponses correctes » du chatbot : quand les ingénieurs de Google Research évaluent plus en profondeur la qualité des réponses fournies, celles-ci se révèlent finalement trop « factuelles »… et pas assez humaines. Le problème des déserts médicaux ne semble pas prêt d’être résolu par les simples progrès de l’IA, même s’ils sont véritablement prometteurs.











Source link

Articles similaires

Bouton retour en haut de la page