Mobilité

DALL-E, Lensa, LaMDA, ChatGPT : les enjeux éthiques des IA

DALL-E, Lensa, LaMDA, ChatGPT : les enjeux éthiques des IA génératrices d'images ou de textes

Les services de génération d’images et de texte à base d’IA ont actuellement le vent en poupe. Des outils comme DALL-E 2, Midjourney et ChatGPT permettent de créer des images à partir de descriptions textuelles, de créer des collections d’avatars stylisés à partir de selfies, et de discuter avec des chatbots capables de répondre à des questions sur un grand nombre de sujets. ChatGPT fait en outre beaucoup parler de lui, de par sa capacité à générer du texte « sur mesure ». Mais l’utilisation de ces technologies soulève aussi des enjeux éthiques importants.

Les services de génération d’images basés sur l’IA, d’abord. Grâce à un apprentissage profond nourri par une masse colossale de données visuelles, les réseaux de neurones artificiels de DALL-E et Midjourney sont capables de créer des photos ou des illustrations de haute qualité à partir d’une simple description textuelle. Des résultats bluffants, qui ne sont pas, donc, sans poser de questions, notamment en ce qui concerne la propriété intellectuelle et les stéréotypes.

dall e 22 

Des « créations » visuelles bourrées de clichés

OpenAI, le laboratoire de recherche en IA derrière DALL-E, a considérablement restreint les possibilités d’usage de son modèle d’IA afin d’empêcher son utilisation pour créer des deep fakes ou de la désinformation. Will Knight, chroniqueur tech pour Wired, souligne ainsi que de tels outils peuvent être utilisés pour innover dans l’art ou pour aider les entreprises en matière de marketing, mais qu’ils ont aussi « le pouvoir de manipuler et d’induire en erreur ». A noter que Getty Images a interdit la vente d’images générées par IA sur sa plateforme, pour une autre raison : le risque de plagiat et de violation des droits d’auteur. La raison est simple : ces systèmes d’IA utilisent des images déjà existantes pour en créer de nouvelles, et il est parfaitement possible que leurs créations soient parfois un peu trop « proches » de celles dont elles s’inspirent.

Le site de présentation de la version grand public de DALL-E, Crayion, prévient en outre dans sa FAQ qu’un tel système pourrait très bien « renforcer ou exacerber les préjugés sociétaux », et « générer des images qui contiennent des stéréotypes » sexistes ou raciaux. Le site de DALL-E indique également que son moteur filtre un maximum de biais, mais qu’il peut parfois « en laisser passer ». En analysant le code de DALL-E, le magazine Vice observe ainsi que l’inclusion de termes de recherche tels que « PDG » génère « exclusivement « des images d’hommes blancs en costume d’affaires, tandis que l’utilisation du mot « infirmière » ou « secrétaire » invite le système à créer des images de femmes.

Les mêmes craintes éthiques liées aux stéréotypes concernent les générateurs d’avatars stylisés. Depuis l’automne 2022, les applications mobiles basées sur l’IA pour transformer les photos de profil en avatars de comics, de mangas ou d’albums photos d’avant-guerre, comme Lensa et AI Time Machine, ont la côte. Pour créer de telles images, ces outils brassent des millions d’images disponibles sur Internet, et s’inspire d’un grand nombre d’oeuvres originales. Mais comme pour DALL-E et Midjourney, ils font l’objet de critiques, à cause de leur tendance à entretenir des stéréotypes physiques, issus des données sur lesquelles ils ont été entraînés.

lensa1 

« Lensa m’a déshabillée sans mon consentement »

Dans le MIT Technology Review, la journaliste Melissa Heikkilä raconte ainsi comment, en utilisant Lensa, elle a constaté que ses avatars étaient « souvent dénudés », voire érotiques, avec une exagération de ses traits asiatiques. « Alors que Lensa AI a généré pour mes collègues masculins des avatars réalistes et flatteurs – en les dépeignant par exemple en astronautes, en guerriers féroces ou encore avec le même style que les pochettes cools d’album de musique électro – moi, j’ai obtenu des tonnes de nus », relate-t-elle. « Sur les 100 avatars que l’application m’a générés, 16 étaient seins nus et 14 me montraient portant des tenues extrêmement courtes et adoptant des poses clairement sexualisées. Je suis une femme d’origine asiatique et j’ai l’impression que c’est la seule chose que le modèle d’IA ait retenu de mes selfies », ajoute-t-elle.

D’après Melissa Heikkilä, ces résultats s’expliqueraient par « l’importante quantité d’images sexualisées » mettant en scène des femmes asiatiques, contenue dans la base de données utilisée par l’appli. Ainsi, Stable Diffusion, le module d’IA open source qu’utilise Lensa AI, a été construit à partir de LAION-5B, un ensemble massif de données « compilé en balayant des images sur Internet ». Et comme Internet « regorge de photos de femmes nues ou à peine vêtues ainsi que d’images reflétant des stéréotypes sexistes et racistes, l’ensemble de données est également orienté vers ce types de clichés », observe Aylin Caliskan, professeure adjoint à l’université de Washington, qui étudie les biais et la représentation dans les systèmes d’IA. Selon elle, cela conduit à des modèles d’IA qui « sexualisent les femmes qu’elles le veuillent ou non, et cela s’applique en particulier aux femmes issues de minorités ethniques. » D’autres chercheurs constatent, sans ambages, que les données d’entraînement des IA de Stable Diffusion / Lensa et d’Open AI / DALL-E « sont remplies de stéréotypes racistes, de pornographie et d’images explicites de viols ».

Melissa Heikkilä avait d’ailleurs remarqué, en septembre 2022, que le mot-clé « asiatique » ne renvoyait pratiquement qu’à du contenu pornographique dans l’ensemble de données de Stable Diffusion. Selon Stability.AI, la société qui a développé Stable Diffusion, une nouvelle version du modèle a été lancée fin novembre, avec un » filtre de sécurité ». Ce filtre ne semble pas être utilisé par Lensa AI, car sinon il supprimerait ces résultats. Mais les données d’entraînement ne sont pas les seules à être en cause : « Les entreprises qui développent ces modèles et ces applications font des choix actifs sur la façon dont elles utilisent les données », estime ainsi Ryan Steed, doctorant à l’université Carnegie Mellon. Dans Wired, il explique que « quelqu’un doit choisir les données d’entraînement, décider de la manière dont le modèle est construit, décider si oui ou non il faut prendre des mesures pour atténuer ces biais », et qu’ici, les développeurs de l’application « ont choisi que les avatars masculins apparaîtront avec des combinaisons spatiales alors que les avatars féminins, eux, auront des strings cosmiques et des ailes de fée ».

Reste le risque de voir certains internautes utiliser Lensa AI pour générer des photos à à caractère pornographique ou pédophile. « Lensa AI est la première application à la mode développée à partir de Stable Diffusion, et elle ne sera pas la dernière. À première vue, cette appli peut sembler amusante et sans danger, mais rien n’empêche les gens de l’utiliser pour générer des images de femmes nues, sans leur consentement, à partir de clichés postés sur leurs réseaux sociaux. D’autres pourraient se servir de l’application pour créer des images d’enfants nus. Les stéréotypes et les préjugés que Lensa AI contribue à entretenir peuvent également être extrêmement préjudiciables sur la manière dont les femmes et les filles se perçoivent elles-mêmes ou que les autres les perçoivent », analyse Aylin Caliskan.

lensa3 

Le risque de mésusage n’épargne pas la génération de texte

Et ChatGPT, là dedans, me demanderez-vous ? Toutes ces considérations éthiques n’épargnent pas la génération de texte. Comme nous vous l’expliquions récemment, ChatGPT, le bébé d’Open AI que certains imaginent volontiers détrôner Google et son chatbot LaMDA, est bluffant de par ses réponses à toutes sortes de questions. Il est capable de vous expliquer des concepts complexes de physique quantique, d’écrire des poèmes, de résumer des textes, de concevoir une lettre de motivation, et plus largement, d’écrire des textes « originaux », sans fautes d’orthographe, en quelques secondes. Facile, dès lors, d’imaginer son utilisation pour servir de « béquille » ou d’assistant aux créateurs, artistes, et écrivains. Pour réussir ses prouesses, ChatGPT utilise le moteur de traitement de langage d’OpenAI, GPT-3, qui a été entraîné à partir de 8 millions de documents, au moyen d’un réseau de neurones artificiels. Il n’est pas encore connecté à Internet, mais cela ne saurait, sans aucun doute, tarder.

Qu’il s’agisse de ChatGPT ou de LaMDA, les craintes sont les mêmes : et si ces outils, qui conversent comme des humains, étaient utilisés à des fins malveillantes ? Comme il l’a fait avec DALL-E, OpenAI a limité l’utilisation de son chatbot : il est impossible de lui demander des conseils pour fabriquer une bombe, ou encore de lui parler de sujets sexistes ou racistes. Enfin, en théorie.

Les craintes liées au plagiat, déjà soulevées avec les images générées par DALL-E et Midjourney, concernent également les outils de création de textes. Les enseignants redoutent logiquement que leurs élèves / étudiants se reposent sur ChatGPT pour concevoir de toute pièce leurs devoirs, exposés et autres travaux écrits. Difficile, a priori, de détecter le plagiat dans ce cadre, même si un internaute a récemment créé un algorithme, GPTZero, qui serait capable de déterminer si un texte a été « créé par un humain ou par une machine ».

chatgpt bombe2 

 

Les textes générés par IA vont-ils « polluer » le Web ?

Plus largement, au-delà des étudiants, le risque serait de voir ces outils être utilisés avec outrance par des centaines et des centaines d’auteurs de blogs, de webmarketeurs et de journalistes en manque d’inspiration. Jusqu’à « polluer le Web ». Il faut ainsi garder en tête que ChatGPT et LaMDA sont capables de faire des erreurs, puisqu’ils sont susceptibles de se baser sur des textes eux-mêmes truffés de fautes. Toujours dans Wired, la même Melissa Heikkilä écrit que « les systèmes d’IA pourraient faciliter la production de quantités d’informations fausses, d’abus et de spams, déformant les informations que nous consommons et même notre sens de la réalité ». Ainsi, le vrai problème ne serait pas le plagiat, mais le fait qu’à terme, le Web serait « rempli de contenus majoritairement erronés ». Pourquoi ? « Parce que les IA sont entraînées à partir de contenus glanés sur Internet… que d’autres IA ont elles-mêmes produit ». Dès lors que des informations mensongères ou malveillantes se trouvent dans les ensembles de données trouvés sur le Web, il y a fort à parier qu’elles seront utilisées pour générer de nouvelles fake news, et ainsi de suite.

« À l’avenir, il sera de plus en plus difficile de trouver des données d’entraînement de bonne qualité, garanties sans IA. Si l’on veut éviter que les futurs modèles d’IA ne soient entachés de biais et de faussetés à l’extrême, il ne suffira plus d’aspirer aveuglément des textes sur l’internet. Il est vraiment important de se demander si nous devons nous entraîner sur la totalité de l’internet ou s’il existe des moyens de filtrer les éléments de haute qualité qui nous donneront le type de modèle linguistique que nous voulons », estime Daphne Ippolito, chercheuse chez Google Brain, l’unité de recherche de Google dédiée à l’apprentissage profond.

A l’instar de GPTZero, l’enjeu sera enfin, demain, de mettre au point des outils pour détecter les textes générés par une IA. Pas seulement pour garantir la qualité des futurs modèles linguistiques, mais aussi « pour s’assurer que les informations auxquelles nous avons accès quotidiennement sont basées sur des faits véridiques ».

LaMDA Google 




Source link

Articles similaires

Laisser un commentaire

Bouton retour en haut de la page