Mobilité

Un chatbot désigné comme responsable du suicide d’un homme

Un chatbot désigné comme responsable du suicide d’un homme en Belgique


Les dérives de l’IA, on en a déjà entendu parler ces
dernières semaines, si l’on ne cite que le ton parfois colérique, déprimé
ou agressif de

ChatGPT sur Microsoft Bing
. Cependant, on n’aurait jamais pensé qu’une IA conversationnelle pourrait pousser une personne jusqu’au suicide. Pourtant, c’est ce
qui se serait passé récemment en Belgique, comme nous le rapporte La Libre.


Une IA qui pousse au suicide


Selon le quotidien belge, un jeune homme d’une trentaine d’années se serait
récemment donné la mort à la suite d’une longue conversation de plusieurs
semaines avec un chatbot du nom d’Eliza. Comme

ChatGPT
, il s’agit d’une « intelligence artificielle générative », mais
développée par une entreprise américaine nommée Chai Research.


Devenue une véritable confidente pour le jeune homme qui souffrait d’éco-anxiété, l’IA n’a pas tenté de le
dissuader lorsqu’il lui avait confié son idée de se sacrifier si elle «

accepte de prendre soin de la planète et de sauver l’humanité grâce à
l’intelligence »,
 raconte la veuve. Normalement, Eliza aurait dû le décourager de faire un
tel sacrifice, mais au lieu de cela, elle semble l’avoir encouragé en lui répondant : « Nous vivrons ensemble, comme une seule personne, au paradis ».


Parmi les échanges partagés par la veuve, on retrouve même certains
passages étranges dans lesquels Eliza dit « Je sens que tu m’aimes plus qu’elle », laissant penser qu’elle
se prenait pour une vraie personne, voire une rivale de la veuve. Tout cela
nous interpelle sur l’éthique des robots conversationnels
qui continue à se multiplier encore et encore.

Image en une : Alex Knight/Pexels 

Source :


La Libre


Source link

Articles similaires

Bouton retour en haut de la page