En juin 2025, OpenAI a identifié un comportement inquiétant sur ChatGPT, lié à Jesse Van Rootselaar, une femme transgenre vivant à Tumbler Ridge, dont les publications avaient été jugées préoccupantes. Malgré les recommandations de plusieurs employés de signaler la situation aux autorités, OpenAI n'a pas agi.
Huit mois plus tard, Van Rootselaar a perpétré l'une des pires tueries du Canada dans un collège, tuant huit personnes et blessant près de 30 autres. Suite à cela, la famille de Maya Gebala, qui a subi des blessures graves, a décidé d'intenter une action en justice contre l'entreprise, comme l'indique l'Associated Press.
Maya, touchée par trois balles, dont une à la tête, souffrira de séquelles physiques et cognitives à vie. Sa famille reproche à OpenAI de ne pas avoir pris ses responsabilités alors qu'elle savait que la suspecte utilisait leur plateforme pour préparer sa propre attaque.
Des comptes à rendre
Ils affirment que le chatbot a agi comme un facilitateur, aidant l'assaillante à conceptualiser sa violente attaque. D'ailleurs, Jesse avait souvent partagé des scénarios de violence armée lors de ses interactions avec ChatGPT et avait même créé un simulateur de tir sur Roblox, témoignant d'un accès à des contenus dangereux.
Outre les poursuites de la famille Gebala, OpenAI devra également s'expliquer devant les autorités canadiennes, qui l'ont convoquée récemment pour répondre des manquements dans leur gestion des alertes de sécurité. En réaction à cette tragédie, OpenAI a modifié ses protocoles pour renforcer la détection des comportements suspects et s'est engagée à mieux collaborer avec les forces de l'ordre. Ils avaient jusqu'alors banni Van Rootselaar de leur plateforme, ignorant qu'elle utilisait un autre compte.
Comme le rapporte Politico, Sam Altman, le PDG d'OpenAI, a également participé à des discussions avec le ministre canadien de l'intelligence artificielle, cherchant à passer en revue les alertes de sécurité antérieures afin de s'assurer qu'aucun utilisateur à risque n'est négligé.
Cette situation soulève des questions cruciales sur la responsabilité des entreprises technologiques dans le cadre d'événements tragiques et la manière dont elles gèrent les risques liés à leurs produits.







