Dans une affaire aussi choquante qu'inquiétante, Kim, une jeune femme de 21 ans, a été arrêtée par les forces de l'ordre coréennes pour avoir planifié et exécuté deux meurtres à Séoul. Elle aurait utilisé l'intelligence artificielle, plus précisément ChatGPT, pour s'informer sur les effets d'un mélange mortel d'alcool et de somnifères, selon des rapports de Le Parisien et BBC.
Le 28 janvier 2026, elle a été vue entrant dans un motel avec un homme dans le quartier de Suyu-dong, seulement pour quitter l'établissement seule deux heures plus tard. La victime, un jeune homme, a été retrouvée morte le lendemain, soulevant des questions troublantes sur les événements survenus cette nuit-là.
Moins de deux semaines plus tard, elle a de nouveau été impliquée dans un autre meurtre, dans des circonstances similaires. Les enquêteurs ont pu relier Kim aux crimes grâce à des images de caméras de sécurité.
Des recherches inquiétantes sur les dangers des mélanges
Lors de son arrestation, les policiers ont découvert sur le téléphone de Kim des recherches inquiétantes réalisées sur ChatGPT, y compris des questions telles que : « Que se passe-t-il si on prend des somnifères avec de l'alcool ? » et « Combien en faut-il pour que ce soit dangereux ? ». Un enquêteur a commenté que Kim semblait parfaitement consciente des risques liés à la consommation de ces substances.
Bien que la suspecte ait avoué avoir mélangé des médications anxiolytiques et de l'alcool pour les faire consommer à ses victimes, elle a soutenu qu'elle n'avait pas l'intention de les tuer, une déclaration mise en doute par les autorités.
Aucunement novice dans ce type de crime, Kim avait précédemment tenté d'empoisonner un homme en décembre 2025, en lui administrant une boisson chargée de drogues dans un café à Namyangju, bien qu'il ait survécu à cette tentative.
Ce drame soulève de sérieuses préoccupations quant à la responsabilité des technologies d'intelligence artificielle et à leur utilisation potentiellement néfaste. Selon des experts, la régulation de ces outils devient primordiale pour éviter des cas similaires à l'avenir. La réflexion sociétale sur les implications morales et éthiques de l'IA n'a jamais été aussi cruciale.







