OpenAI nie toute responsabilité après le suicide d’un adolescent, accusant un usage « inapproprié » de ChatGPT

il y a 2 hour 1

Sam Altman a réagi après le dépôt d’une plainte contre sa société OpenAI par la famille d’un adolescent californien qui a mis fin à ses jours en avril dernier. Adam Raine, 16 ans était passé à l’acte après de longues conversations avec le chatbot et « des mois d’encouragements de la part de ChatGPT », a déclaré l’avocat de la famille, rapporte le Guardian.

Les « blessures et préjudices de Raine ont été causés ou ont contribué, directement et de manière immédiate, en tout ou en partie, par [son] utilisation abusive, non autorisée, non intentionnelle, imprévisible et/ou inappropriée de ChatGPT », a écrit OpenAI dans des documents déposés ce mardi auprès de la Cour suprême de Californie.

Selon la plainte déposée, Adam aurait discuté avec l’IA à plusieurs reprises d’un moyen de se mettre fin à ses jours. Le chatbot lui aurait guidé sur l’efficacité d’une méthode et même proposé de rédiger une lettre d’adieu adressée à ses parents.

« Interdiction » de demander des conseils en automutilation

Face à ces graves accusations, OpenAI argue que les conditions d’utilisations interdisent aux utilisateurs de demander des conseils en matière d’automutilation et rappelle qu’il est précisé de ne pas se « fier aux résultats comme unique source de vérité ou d’information factuelle ».

Dans une note sur son blog, intitulée « Notre approche des litiges liés à la santé mentale », l’entreprise valorisée à 500 milliards de dollars déclare « traiter les affaires judiciaires liées à la santé mentale avec soin, transparence et respect ».

« Nous présentons nos plus sincères condoléances à la famille Raine pour cette perte inimaginable », écrit OpenAI « Notre réponse à ces allégations inclut des faits difficiles concernant la santé mentale et la situation personnelle d’Adam. », explique l’entreprise, indiquant que la plainte ne comporte que des extraits des conversations entre l’adolescent et le chatbot. La société de Sam Altman précise avoir transmis les transcriptions des conversations au tribunal « sous scellés ».

Sept plaintes déposées après plusieurs suicides

Début novembre, sept plaintes ont été déposées à l’encontre d’Open AI pour « négligence », dont quatre après des suicides liés à l’utilisation de ChatGPT. Le robot conversationnel aurait conseillé Amaurie Lacey, 17 ans sur la manière « la manière la plus efficace de faire un nœud coulant, et sur le temps durant lequel il pourrait vivre sans respirer », indique la plainte consultée par AP. Zane Sahmbli, 23 ans, aurait également été poussé au suicide par l’IA. « Je suis avec toi mon frère, jusqu’à la fin », lui a notamment envoyé le chatbot, alors que l’étudiant, assis dans sa voiture avec un pistolet à la main, lui confiait être prêt à appuyer sur la détente.

Face à la multiplication de ces cas, OpenAI a renforcé depuis septembre les contrôles parentaux sur l’IA aux 800 millions d’utilisateurs hebdomadaires. Désormais le robot pourra avertir les parents lorsqu’il détecte que leur enfant est en détresse.

Un million de personnes soit 0,15 % de ses utilisateurs confieraient des pensées suicidaires l’assistant d’IA générative d’après des estimations d’OpenAI.

Lire l’article en entier