Informatique

Infox en ligne : Le CSA veut que les plateformes analysent

Infox en ligne : Le CSA veut que les plateformes analysent leurs propres algorithmes

Le Conseil supérieur de l’audiovisuel (CSA) a rendu ce mardi son bilan sur les pratiques mises en oeuvre en 2020 par les grandes plateformes pour lutter contre la désinformation.

C’est la deuxième année que les plateformes sont tenues de rendre compte auprès du CSA de leurs pratiques en France, depuis la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information. Ces obligations en matière de régulation systémique s’inscrivent dans un panorama législatif plus vaste avec en ligne de mire, entre autres, le prochain Digital Services Act de l’Union européenne.

Bien que plus détaillés que l’année précédentes, les rapports remis par les plateformes au CSA apportent toujours très peu d’éléments sur le volet algorithmique, sur lequel repose pourtant, une grande partie de la régulation qui est faite. Selon le CSA, le travail de modération devrait être supervisé par l’humain, puisque les effets de son automatisation ne sont pas encore clairement analysés, et les recommandations de contenus demeurent toujours opaques.

« Les opérateurs n’expliquent pas, ou ne le font que très partiellement, comment ces systèmes spécifiques fonctionnent, quelles sont leurs performances (faux positifs et négatifs) ainsi que leurs résultats concrets » écrit le CSA dans son rapport. Chez Microsoft, LinkedIn et Verizon Media, l’autorité note que ces informations sont même inexistantes. Qui plus est, « aucune indication des performancse des systèmes utilisés n’a été indiquée » ajoute le CSA, qui reconnaît cependant que la « complexité » de certaines technologies, comme le machine learning, auxquels ont recours Facebook, Google ou encore Twitter, peuvent être un frein.

Comment prendre en compte la nuisance des biais algorithmiques ?

Pourtant, le CSA a pu constater que les systèmes algorithmiques sont de plus en plus exploités dans la détection de fausses informations. Certains opérateurs ont développé des systèmes algorithmiques de modération spécifiques pour identifier des contenus problématiques. Dailymotion, Snapchat et Twitter, par exemple, utilisent des algorithmes pour faire remonter les signalements, qui une fois remontés sont traités par les systèmes pour réduire les délais d’instruction. Dans le cas de Twitter, ce procédé permet d’identifier les contenus avant modération humaine.

D’autres platefomes, comme Facebook et Microsoft, utilisent des réseaux adversaires génératifs (GANs) pour « créer des hypertrucages, capables ensuite d’entraîner des algorithmes d’apprentissage profond à mieux les détecter » explique le CSA. Microsoft a indiqué dans son rapport donner accès à des outils de détection de deepfakes comme Microsoft Video Authenticator, qui peuvent être ensuite intégrés à son service Azure.

Alors que de tels systèmes automatisés peuvent être utilisés pour débusquer massivement des contenus problématiques, le CSA préconisent une plus grande transparence de la part des plateformes sur les intentions, les mécanismes et les conséquences de ces systèmes. Sur le sujet plus spécifique des alogirhtmes de recommandation de contenus, les conseillers alertent en outre sur le potentiel de nuisance des biais algorithmiques, qui sont susceptibles d’altérer la recherche et la recommandation de contenus.

La crise sanitaire accentue le phénomène de la désinformation de masse

Face à la surabondance de fausses informations liées au contexte de la crise sanitaire, les plateformes ont su se montrer là particulièrement proactives, tempère le CSA. Facebook a notamment déclaré la suppression de 12 millions de contenus
depuis mars 2020 sur Facebook et Instagram liés à la crise sanitaire, et Google a annoncé avoir supprimé 9,3 millions de vidéos sur la
plateforme YouTube liées à la crise sanitaire sur le premier
trimestre 2020.

Mais au-delà des chiffres, les éditeurs se voient souvent reprochés leur manque de responsabilisation et de sincérité en matière de régulation. Le Wall Street Journal a livré il y a peu une enquête sur la
nocivité de Facebook et Instagram pour ses utilisateurs, après que Facebook a apporté des
changements à ses algorithmes par le passé. Facebook s’est défendu en début de semaine, en avançant que les arguments avancés dans ce travail journalistique reposent sur une sélection restrictive de documents ayant fait l’objet de fuite.

La responsabilité des plateformes devient aussi un enjeu pour protéger les publics plus jeunes. Avec des réseaux sociaux, comme TikTok, qui attirent les adolescents, les efforts pour en restreindre l’accès ou contrôler les contenus se multiplient. Il y a quelques jours encore, ByteDance, la maison mère de TikTok, annonçait de son propre chef qu’elle allait limiter le temps d’utilisation de la version chinoise de TikTok chez les moins de 14 ans. Une initiative plutôt surprenante de la part d’un éditeur, mais qui intervient par ailleurs dans un contexte de reprise de contrôle de l’Etat chinois sur les mastodontes de la tech, comme le rappelle Le Monde.




Source link

Articles similaires

Bouton retour en haut de la page