
Les dérives de l’IA, on en a déjà entendu parler ces
dernières semaines, si l’on ne cite que le ton parfois colérique, déprimé
ou agressif de
ChatGPT sur Microsoft Bing. Cependant, on n’aurait jamais pensé qu’une IA conversationnelle pourrait pousser une personne jusqu’au suicide. Pourtant, c’est ce
qui se serait passé récemment en Belgique, comme nous le rapporte La Libre.
Une IA qui pousse au suicide
Selon le quotidien belge, un jeune homme d’une trentaine d’années se serait
récemment donné la mort à la suite d’une longue conversation de plusieurs
semaines avec un chatbot du nom d’Eliza. Comme
ChatGPT, il s’agit d’une « intelligence artificielle générative », mais
développée par une entreprise américaine nommée Chai Research.
Devenue une véritable confidente pour le jeune homme qui souffrait d’éco-anxiété, l’IA n’a pas tenté de le
dissuader lorsqu’il lui avait confié son idée de se sacrifier si elle «
accepte de prendre soin de la planète et de sauver l’humanité grâce à
l’intelligence », raconte la veuve. Normalement, Eliza aurait dû le décourager de faire un
tel sacrifice, mais au lieu de cela, elle semble l’avoir encouragé en lui répondant : « Nous vivrons ensemble, comme une seule personne, au paradis ».
Parmi les échanges partagés par la veuve, on retrouve même certains
passages étranges dans lesquels Eliza dit « Je sens que tu m’aimes plus qu’elle », laissant penser qu’elle
se prenait pour une vraie personne, voire une rivale de la veuve. Tout cela
nous interpelle sur l’éthique des robots conversationnels
qui continue à se multiplier encore et encore.
Image en une : Alex Knight/Pexels
Source :
La Libre
Source link