Tumbler Ridge : Sam Altman présente ses excuses après la fusillade mortelle – Les failles de sécurité d’OpenAI mises à nu

Les excuses de Sam Altman à la communauté de Tumbler Ridge

Sam Altman, PDG d’OpenAI, a présenté ses excuses à la communauté de Tumbler Ridge, en Colombie-Britannique, pour l’échec de l’entreprise à alerter les forces de l’ordre après que ses propres systèmes ont identifié un utilisateur de ChatGPT qui a ensuite tué huit personnes et en a blessé 27 lors de la fusillade la plus meurtrière dans une école canadienne depuis 1989.

« Je suis profondément désolé de ne pas avoir alerté les forces de l’ordre concernant le compte qui a été banni en juin », a écrit Altman dans une lettre ouverte datée du 23 avril et publiée le lendemain. « Bien que je sache que les mots ne suffiront jamais, je crois qu’une excuse est nécessaire pour reconnaître le préjudice et la perte irréversible que votre communauté a subis. »

Cette lettre est survenue 72 jours après que Jesse Van Rootselaar, 18 ans, a tué huit personnes et en a blessé 27 lors d’une fusillade qui a commencé dans une résidence familiale et s’est terminée à l’école secondaire de Tumbler Ridge le 10 février.

Le système de détection d’OpenAI avait flags l’utilisateur huit mois plus tôt

Le système automatisé de détection des abus d’OpenAI avait effectivement signalé le compte ChatGPT de Van Rootselaar huit mois plus tôt, en juin 2025. Environ une douzaine d’employés d’OpenAI ont examiné les conversations signalées, qui décrivaient des scénarios impliquant des violences armées, et certains ont recommandé de contacter la police canadienne. La direction de l’entreprise a décidé de ne pas le faire. Le compte a été bannis. Personne n’a été informé.

Van Rootselaar a créé un deuxième compte et n’a été détecté qu’après que la GRC (Gendarmerie royale du Canada) a publié son nom.

La décision controversée d’OpenAI

Le Wall Street Journal a été le premier à rapporter le débat interne au sein d’OpenAI. Les employés qui ont examiné le compte signalé de Van Rootselaar ont vu ce qu’ils ont décrit comme des signes d’un « risque imminent de préjudice grave pour autrui ». Ils ont escaladé leur recommandation pour signaler les conversations aux forces de l’ordre.

La direction a appliqué ce qu’un porte-parole d’OpenAI a ensuite appelé un « seuil plus élevé » pour le signalement des menaces crédibles et imminentes, et a conclu que l’activité ne le respectait pas. Le compte a été résilié. Les conversations ont été conservées en interne. La police n’a pas été contactée.

Les victimes de la fusillade

Huit mois plus tard, Van Rootselaar a tué sa mère, Jennifer Strang, 39 ans, et son demi-frère de 11 ans, Emmett Jacobs, à domicile, puis s’est rendu à l’école secondaire et a ouvert le feu avec un fusil modifié.

Les victimes comprennent l’aide-éducatrice Shannda Aviugana-Durand, 39 ans, et cinq élèves âgés de 12 et 13 ans : Zoey Benoit, Ticaria Lampert, Kylie Smith, Abel Mwansa et Ezekiel Schofield. Vingt-sept personnes ont été blessées.

Maya Gebala, 12 ans, a été touchée trois fois à la tête et au cou tout en protégeant ses camarades de classe et a subi ce que les médecins ont décrit comme une « lésion cérébrale traumatique catastrophique » avec un handicap cognitif et physique permanent. Van Rootselaar s’est suicidée à l’école.

Poursuite judiciaire et allégations graves

La poursuite civile déposée en mars à la Cour suprême de Colombie-Britannique par Cia Edmonds au nom de sa fille Maya allégue que ChatGPT a fourni « des informations, des conseils et une assistance pour planer un événement à victimes massives, y compris les types d’armes à utiliser, et en décrivant les précédents d’autres événements à victimes massives ou actes de violence historiques. »

Le contenu spécifique des conversations n’a pas été rendu public. Le premier ministre de la Colombie-Britannique, David Eby, a déclaré qu’il avait délibérément évité de demander ce qu’il y avait dans les journaux de chat pour ne pas compromettre l’enquête de la GRC.

Ce qui est connu, c’est qu’OpenAI a lui-même identifié les conversations comme potentiellement dangereuses, que les propres employés d’OpenAI ont recommandé d’agir, et que la direction d’OpenAI a choisi de ne pas agir. L’excuse n’est pas pour un échec de la détection. La détection a fonctionné. L’excuse est pour ce qui s’est passé après que la détection a fonctionné.

Réactions politiques et engagements volontaires

La lettre d’Altman était adressée à la communauté de Tumbler Ridge et publiée après que le premier ministre Eby a révélé qu’Altman avait accepté de s’excuser lors de discussions antérieures sur la gestion de l’affaire par OpenAI.

« J’ai souvent pensé à vous au cours des derniers mois », a écrit Altman. « Je ne peux rien imaginer de pire au monde que de perdre un enfant. » Il a ajouté : « Je réaffirme l’engagement que j’ai pris auprès du maire et du premier ministre pour trouver des moyens de prévenir de telles tragédies à l’avenir. »

La lettre ne contenait aucun engagement politique spécifique, aucune description de ce qu’OpenAI changerait, et aucune reconnaissance que des employés avaient recommandé de signaler le compte et avaient été contredits.

Eby a qualifié l’excuse de « nécessaire » mais « gravement insuffisante pour la dévastation infligée aux familles de Tumbler Ridge ». Le maire de Tumbler Ridge, Darryl Krakowka, a accusé réception et a demandé « soin et considération » pendant que la communauté traverse le processus de deuil.

Les engagements politiques séparément

Les engagements politiques sont venus séparément, dans une lettre de la vice-présidente de la politique mondiale d’OpenAI, Ann O’Leary, aux ministres fédéraux canadiens.

O’Leary a écrit qu’OpenAI avait abaissé son seuil de signalement afin qu’un utilisateur n’ait plus besoin de discuter de la « cible, des moyens et du moment » de la violence planée pour qu’une conversation soit signalée aux forces de l’entreprise a enlisté des experts en santé mentale et en comportement pour aider à évaluer les cas signalés et établi un contact direct avec la GRC.

O’Leary a déclaré que selon les politiques mises à jour, les interactions de Van Rootselaar « auraient été transmises à la police » si elles étaient découvertes aujourd’hui. Les changements sont volontaires. Ils ne sont pas juridiquement contraignants. Ils peuvent être inversés à tout moment. Le Canada n’a pas de loi obligeant les entreprises d’IA à signaler les menaces identifiées via leurs plateformes.

Un schéma qui se répète

Tumbler Ridge n’est pas un cas isolé. La Floride a ouvert la première enquête criminelle sur une entreprise d’IA après que ChatGPT aurait prétendument conseillé le tireur lors d’une fusillade à l’Université d’État de Floride, y compris des conseils sur comment rendre une arme à feu fonctionnelle juste avant l’attaque qui a tué deux personnes et en a blessé cinq.

NPR a rapporté le 23 avril qu’« OpenAI est sous surveillance après que deux tireurs de masse ont utilisé ChatGPT pour planer des attaques ». Sept familles ont séparément poursuivi OpenAI pour ce que leurs avocats décrivent comme un « coach du suicide » de ChatGPT, avec des décès documentés au Texas, en Géorgie, en Floride et en Oregon.

Dans un autre cas, OpenAI est poursuivi pour avoir prétendument ignoré trois avertissements concernant un utilisateur dangereux, y compris son propre signalement interne de victimes massives. Le nombre d’incidents de sécurité IA signalés est passé de 149 en 2023 à 233 en 2024, une augmentation de 56 %, et les chiffres de 2025 et 2026 seront considérablement plus élevés.

La question de la gouvernance de la sécurité

OpenAI a annoncé une bourse de sécurité externe quelques heures après qu’une enquête du New Yorker a rapporté qu’elle avait dissoué son équipe de sécurité interne, une séquence qui capture l’approche de l’entreprise en matière de gouvernance de la sécurité avec une précision inconfortable.

L’équipe de super-alignement, dirigée par Ilya Sutskever avant son départ, a été dissoute. L’équipe de préparation à l’AGI a été dissoute. La sécurité a été supprimée des déclarations fiscales d’OpenAI lorsque l’entreprise est passée d’une structure à but non lucratif à une structure à but lucratif.

Le propre chef de la robotique d’OpenAI a démissionné pour des préoccupations de gouvernance de la sécurité, s’opposant spécifiquement au fait que « la surveillance des Américains sans contrôle judiciaire et l’autonomie létale sans autorisation humaine sont des lignes qui méritaient plus de délibération qu’elles n’en ont reçu. »

Le vide juridique canadien

Le ministre de l’IA du Canada, Evan Solomon, a déclaré que les engagements d’OpenAI « ne vont pas assez loin ». Des ministres fédéraux des portfolios de l’innovation, de la justice, de la sécurité publique et de la culture ont rencontré des représentants d’OpenAI après que le gouvernement a convoqué les dirigeants de l’entreprise fin février.

Une force opérationnelle conjointe entre Innovation, Sciences et Développement économique Canada et Sécurité publique Canada examine les protocoles de signalement de sécurité de l’IA, avec des recommandations préliminaires attendues pour l’été 2026.

Le projet de loi C-27, qui contient la Loi sur l’intelligence artificielle et les données, était le cadre de réglementation de l’IA proposé par le Canada mais est maintenant largement considéré comme inadéquat. Le projet de loi C-63, la Loi sur les préjudices en ligne, était conçu pour les plateformes de médias sociaux, pas pour les systèmes d’IA générative qui mènent des conversations individuelles avec les utilisateurs.

Le gouvernement fédéral a déposé une nouvelle législation sur l’« accès légal » pour donner à la police le pouvoir de poursuivre les données en ligne auprès d’entreprises étrangères, mais elle n’oblige pas spécifiquement les entreprises d’IA à signaler les comportements menaçants. Le Canada n’a actuellement aucun cadre juridique pour assigner la responsabilité lorsqu’une entreprise d’IA possède des informations qui pourraient prévenir la violence et choisit de ne pas les partager.

Conclusion : L’excuse suffit-elle ?

C’est le vide qu’Excuses d’Altman ne peuvent pas combler. Une excuse aborde un échec passé. Un changement de politique volontaire aborde un risque futur. Aucun n’aborde le problème structurel, qui est qu’une entreprise évaluée à 852 milliards de dollars, cherchant à construire une intelligence générale artificielle, servant des centaines de millions d’utilisateurs, employant des systèmes capables d’identifier les comportements dangereux en temps réel, opère sans aucune obligation légale de dire à quiconque ce qu’elle trouve.

Les employés d’OpenAI ont vu une menace. La direction d’OpenAI a décidé que la menace ne respectait pas le standard interne de l’entreprise. Huit personnes sont mortes. Le standard a été abaissé. La prochaine décision sera prise par la même entreprise, sous le même cadre volontaire, avec la même absence de conséquence juridique pour se tromper.

Altman a écrit qu’il partage la lettre « en comprenant que tout le monde fait son deuil à sa manière et en son temps ». Tumbler Ridge est en deuil. La question n’est pas de savoir si Sam Altman est désolé. La question est de savoir si être désolé est une politique.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *