Mobilité

Pourquoi Elon Musk a raison de dire qu’il faut réglementer

Pourquoi Elon Musk a raison de dire qu'il faut réglementer l'IA dès maintenant


Nos confrères de CNET.com ont publié une chronique en faveur d’une
régulation de l’intelligence artificielle. Voici leur opinion.


Il faut faire quelque chose au sujet de l’intelligence artificielle avant
qu’il ne soit trop tard. Vous avez probablement entendu une variante de
cette déclaration des dizaines de fois au cours des années qui ont précédé
ChatGPT. Vous l’avez probablement entendue une centaine de fois depuis que
le chatbot a fait irruption il y a quelques mois.


Si le développement de l’intelligence artificielle se poursuit à son rythme
actuel, une catastrophe est à craindre. Qu’il s’agisse d’un tsunami de
désinformation, de millions d’emplois détruits, la révolution de l’IA
comporte d’énormes risques.


En mars, une lettre ouverte a demandé à tous les laboratoires de suspendre
le développement de l’IA pendant six mois, le temps que le gouvernement
élabore une réglementation. Cet appel a notamment été signé par

Elon Musk
, Steve Wozniak, cofondateur d’Apple, et Yuval Noah Harari, auteur du livre
Sapiens, parmi d’autres personnalités du monde de la technologie
et de l’enseignement.


«

Au cours des deux dernières années, de nouveaux outils d’IA sont
apparus qui menacent la survie de la civilisation humaine

», a écrit Yuval Noah Harari. «

L’IA a acquis des capacités remarquables pour manipuler et générer du
langage… L’IA a ainsi piraté le système d’exploitation de notre
civilisation

».


La lettre ouverte affirme qu’il est temps de mettre en place des
garde-fous, car l’IA sera bientôt trop intelligente pour être bridée. Pour
reprendre les termes
d’Elon
Musk
, si nous «

ne mettons en place des réglementations qu’après que quelque chose de
terrible se soit produit, il sera peut-être trop tard pour mettre en
place ces réglementations. L’IA pourrait alors avoir le contrôle

».


Mais il y a une autre raison pour laquelle les législateurs devraient
s’attaquer à l’IA dès maintenant. L’histoire nous apprend qu’il n’y a qu’un
temps limité pendant lequel il est politiquement possible de réglementer
l’IA.


Le problème est, comme toujours, la guerre culturelle : la façon dont de
nombreuses questions sociétales clés deviennent partisanes sous l’influence
de politiciens et d’escrocs en ligne. Si l’IA devient un élément de la
guerre culturelle, il sera beaucoup plus difficile de parvenir à une
réglementation réfléchie et étendue.


Le processus de politisation a peut-être déjà commencé. La citation d’Elon
Musk ci-dessus ? Il l’a prononcée lors d’une apparition dans l’émission de
Tucker Carlson, ex-animateur américain considéré comme un héraut de la
droite ultra conservatrice . Voici comment il avait présenté les propos du
patron de Tesla et Twitter : «

À plus long terme, l’IA pourrait devenir autonome et conquérir le
monde. Mais à court terme, elle est utilisée par les politiciens pour
contrôler ce que vous pensez, pour mettre fin à votre indépendance de
jugement et à la démocratie à la veille d’une élection présidentielle.

»


Mauvais précédents


La diffusion incontrôlée de l’IA pourrait être le prélude à une
catastrophe. Mais s’il est une chose pour laquelle les législateurs
américains se sont montrés habiles, c’est bien de surfer sur le désastre
pour en tirer un bénéfice politique. Pour ce faire, ils recourent souvent à
l’alarmisme. Présenter l’IA comme un complot visant à mettre fin à la
démocratie, comme l’a fait Tucker Carlson, est l’une des nombreuses façons
dont cela pourrait se produire. Car une fois que les esprits s’échauffent,
ils peuvent s’avérer difficiles à calmer.


Il n’est pas nécessaire de chercher bien loin pour trouver des exemples de
partisanerie pathologique. À l’heure où nous écrivons ces lignes, le
Congrès joue à la poule mouillée à propos du relèvement du plafond de la
dette. Les dirigeants du parti démocrate refusent d’autoriser le
gouvernement à emprunter de l’argent pour payer ses factures, à moins que la
Maison-Blanche n’accepte de réduire les mesures d’incitation en faveur des
énergies vertes, d’annuler l’initiative du président Biden sur l’annulation
des prêts étudiants et de réduire les dépenses en matière de sécurité
sociale.


C’est un exemple de politique qui corrompt ce qui devrait être un processus
simple. Le relèvement du plafond de la dette est généralement un rituel
administratif, mais ces dernières décennies, il est devenu un enjeu
politique. Or, les risques sont réels : si aucun des deux camps ne cède et
que le plafond n’est pas relevé, des millions de personnes perdront l’accès
à l’assurance maladie, l’armée ne sera pas payée et les marchés mondiaux
seront perturbés par le fait que les États-Unis ne s’acquittent pas de
leurs obligations en matière de dette.


Encore une fois, cela devrait être facile, bien plus facile que de
réglementer l’IA. Mais cela démontre que même les objectifs les plus clairs
peuvent être déviés par le jeu politique.


Le changement climatique, et la résistance persistante des gouvernements du
monde entier à s’y attaquer de manière adéquate, est peut-être le meilleur
exemple de la guerre culturelle qui bloque l’action. Comment trouver un
compromis lorsqu’un camp affirme que le changement climatique est
apocalyptique tandis que l’autre maintient qu’il est exagéré ou n’existe
pas ? Un clivage similaire rendrait la réglementation de l’IA impossible
ou, au mieux, lente. Trop lente.


Même sur les questions pour lesquelles il existe un consensus bipartisan
sur la nécessité d’agir, les démocrates et les républicains s’opposent
souvent. Pratiquement tout le monde s’accorde à dire que les grandes
entreprises technologiques doivent être réglementées. Les démocrates
s’inquiètent du fait que les entreprises technologiques extrêmement
rentables ne protègent pas suffisamment leurs données et malmènent leurs
concurrents plus petits. Les républicains dénoncent la censure et affirment
que les élites de la Silicon Valley portent atteinte à la liberté
d’expression. Résultat, aucun projet de loi majeur visant à encadrer les
grandes entreprises technologiques n’a jamais été adopté. La même inertie
pourrait affecter la réglementation de l’IA si les partis, bien que
s’accordant sur la nécessité d’agir, prescrivent des solutions différentes.


Premières réponses à la réglementation de l’IA


Il faudra des années pour élaborer une réglementation complète sur les
effets possibles de l’IA. Mais il existe des règles simples et rapides qui
pourraient et devraient être appliquées dès à présent. C’est ce que
demandent les quelque 28 000 personnes qui ont signé la lettre ouverte
soutenue par Elon Musk.


Tout d’abord, la réglementation devrait imposer une plus grande
transparence de la part des développeurs d’IA. Cela signifierait une
transparence sur le moment où elle est utilisée, comme dans le cas des
entreprises qui emploient des algorithmes pour trier les demandes d’emploi
ou de location, par exemple. La Californie s’attaque déjà à ce problème,
avec un projet de loi visant à obliger les sociétés à informer les citoyens
lorsque des IA ont été utilisées pour prendre des décisions au nom de
l’entreprise.


Nous avons également besoin d’entreprises comme OpenAI, qui est à l’origine
de

ChatGPT
, pour mettre à la disposition des chercheurs les données sur lesquelles
les chatbots sont entraînés. À l’ère de l’IA, les revendications de droits
d’auteur risquent d’abonder (comment rémunérer les articles d’information
sur lesquels les chatbots comme GPT fondent leurs réponses, ou les
photographies que les IA génératives utilisent comme source). Une plus
grande transparence quant aux données sur lesquelles les systèmes d’IA sont
formés contribuera à clarifier la situation.


Le plus important est peut-être que l’IA déclare qu’elle est de l’IA. L’une
des grandes inquiétudes que suscite l’intelligence artificielle est sa
capacité à paraître convaincante et persuasive. Des qualités qui peuvent
être dangereuses entre de mauvaises mains. Avant les élections de 2016, la
Russie a utilisé de faux comptes sur les réseaux sociaux pour tenter de
semer la discorde autour de questions sensibles telles que l’immigration et
les tensions raciales. Si elles étaient alimentées par une IA sophistiquée,
ces tentatives d’agitation seraient plus efficaces et plus difficiles à
repérer.


De la même manière qu’Instagram oblige les influenceurs à indiquer « #ad »
lorsqu’ils sont payés pour un message, les publications sur Facebook et
Twitter basées sur l’IA devraient être mentionnées comme telles. Les vidéos
deepfake devraient être étiquetées de manière à être reconnaissable.


L’IA ne fait pas encore l’objet d’une guerre culturelle comme le changement
climatique ou même les grandes entreprises technologiques. Mais combien de
temps cela va-t-il durer ?


Article
de CNET.com adapté par CNETFrance


Image Une : NurPhoto/Getty


Source link

Articles similaires

Bouton retour en haut de la page