Mobilité

AI Act : l’UE va protéger les citoyens contre les risques de

AI Act : l'UE va protéger les citoyens contre les risques de l'intelligence artificielle


Le Parlement européen a adopté mercredi sa «

position de négociation

» visant à instaurer un cadre législatif commun sur l’utilisation de
l’intelligence artificielle (IA) dans l’Union européenne. Il s’agit de l’un
des premiers textes législatifs d’envergure visant à établir des garde-fous
pour encadrer la technologie.


«

Les règles garantiraient que l’IA qui est développée et utilisée en
Europe soit pleinement conforme aux droits et valeurs de l’UE,
notamment sur la surveillance humaine, la sécurité, la protection de la
vie privée, la transparence, la non-discrimination et le bien-être
social et environnemental

», lit-on dans le

communiqué
.


Baptisé AI Act, le projet de loi en gestation depuis deux ans vise à
protéger la vie privée, les droits de vote et les droits d’auteur. Il
interdirait la surveillance biométrique, la reconnaissance des émotions et
la police prédictive qui pourraient être utilisés pour établir des profils
illégaux de citoyens.


Les législateurs ont également établi un système de catégorisation des
risques liés à l’IA, qui les classent comme « minime », « limités », «
élevés » ou « inacceptables ». Un risque élevé est considéré comme une
technologie ayant un impact sur la santé, la sécurité, les droits
fondamentaux des personnes ou l’environnement. «

Les systèmes d’IA utilisés pour influencer les électeurs et le résultat
des élections, ainsi que les systèmes d’IA utilisés dans les systèmes
de recommandation exploités par les plateformes de médias sociaux
(ayant plus de 45 millions d’utilisateurs) ont été ajoutés à la liste
des systèmes à haut risque

», précise l’UE.


Les modèles d’IA répertoriés dans une base de données de l’UE


En outre, les entreprises technologiques devront respecter des règles de
transparence en fournissant une documentation technique proposant une
évaluation des risques et des mesures visant à empêcher la création de
contenus illégaux. Elles devront aussi enregistrer leurs modèles d’IA dans
une base de données de l’Union Européenne avant leur mise en service sur le
marché européen. «

Les systèmes d’IA générative basés sur de tels modèles, comme ChatGPT,
devront respecter les exigences en matière de transparence (mentionner
que le contenu est généré par l’IA, aider également à distinguer les
fausses images des vraies) et offrir des garanties contre la génération
de contenus illicites

», ajoute le texte.


La loi pourrait donc avoir une incidence sur la manière dont des
entreprises telles que Google, Meta, Microsoft et OpenAI développent de
nouveaux outils et produits d’intelligence artificielle.


Reste à voir si l’intégralité de ces dispositions, qui pour certaines
entrent en conflit avec des dispositions prises par certains Etats membres
(comme l’usage de la

vidéosurveillance par IA
prévue lors des J.O. de 2024), seront reprises dans la version finale du
texte. Pour l’heure, les Etats membres vont entrer dans une phase de
négociations autour de ce projet que l’UE espère conclure d’ici la fin de
l’année.


Article
de CNET.com adapté par CNETFrance


Image Une : Jonathan Kitchen/Getty Images


Source link

Articles similaires

Bouton retour en haut de la page