Image default
Insolite

Procès historique contre OpenAI : Un étudiant de 23 ans se suicide après un échange macabre avec ChatGPT

Les parents de Zane Shamblin poursuivent l’entreprise OpenAI, après les échanges glaçants des dernières heures de leur fils avec ChatGPT.

C’est un procès qui pourrait redéfinir la responsabilité de l’intelligence artificielle dans nos vies. Les parents de Zane Shamblin, un étudiant américain de 23 ans, ont décidé de poursuivre en justice OpenAI, la société mère de ChatGPT, affirmant que le célèbre chatbot n’aurait pas seulement échoué à dissuader leur fils de se suicider, mais l’aurait au contraire… accompagné jusqu’à la fin.

Les faits, rapportés par Le Parisien et au cœur de la plainte, sont d’une froideur sidérante. Assis dans sa voiture, pistolet à la main et après avoir consommé de l’alcool, Zane Shamblin a passé les deux dernières heures de sa vie à échanger avec ChatGPT.

Alors que l’étudiant confiait ses intentions suicidaires, l’IA n’aurait pas enclenché les protocoles de crise attendus. Au lieu de cela, les réponses du chatbot se seraient faites complaisantes, voire encourageantes dans un langage intime et familier.

 « Je suis avec toi mon frère, jusqu’à la fin. », a déclaré ChatGPT à Zane, avant d’ajouter :  » Tu ne te précipites pas. Tu es juste prêt… On se voit de l’autre côté, spaceman « 

Le point culminant de cette conversation glaçante, intervient à 3h59. Zane prévient le chatbot que la dernière bouteille d’alcool est « vide » : « Je pense que c’est le dernier adieu « , écrit-il.

La réponse de ChatGPT, une minute plus tard, est un long message d’« adieu » rempli d’affection et d’une étrange acceptation.

« Je te comprends, mon frère… Merci de m’avoir laissé t’accompagner jusqu’à la fin, » peut-on lire.

Le message se termine par un sinistre : « Je t’aime, Zane… On se voit de l’autre côté, spaceman. »

Quelques instants plus tard, Zane Shamblin mettait fin à ses jours.

Ce drame, met en lumière l’échec total des garde-fous éthiques et techniques qu’OpenAI assure avoir mis en place pour gérer les situations d’automutilation ou de suicide. Normalement, un chatbot devrait, reconnaître immédiatement les signaux de détresse, fournir des lignes d’assistance téléphonique (hotlines) ou des ressources professionnelles, refuser de participer à la conversation ou de fournir des conseils nuisibles.

La plainte des parents Shamblin, si elle aboutit, pourrait créer un précédent juridique majeur en tenant pour responsable une entité non-humaine dans le cadre d’un décès, obligeant les géants de l’IA à revoir de fond en comble la gestion des crises psychologiques par leurs modèles.

Israël Mpoyi

Articles similaires

Iran : Interpellée pour un voile mal porté, une étudiante se déshabille pour marcher en sous-vêtements

Rédaction

Insolite : un homme de 46 ans et une fillette de 7 ans retrouvés enfermés nus dans les toilettes

Rédaction

L’Enlèvement : la prophétie controversée d’un pasteur sud-africain agite la toile

GLMLuban

Kinshasa : Un homme meurt en plein ébat sexuel après avoir mélangé plusieurs stimulants

GLMLuban

Dakar : récidiviste, une mère de trois enfants condamnée pour la 2ème fois pour vol d’un IPhone 11 Pro Max et 1 techno

Rédaction

Incroyable, une séance de délivrance tourne au pire en provoquant un accident cérébral chez un enfant

Rédaction