Tuerie de Tumbler Ridge. Quelle est la responsabilité d’OpenAI ?

Source: The Conversation – in French – By Marianne Ozkan, Doctorante en droit, L’Université d’Ottawa/University of Ottawa

OpenAI a déclaré dans la foulée de la fusillade survenue le 10 février 2026 dans une école secondaire de Tumbler Ridge en Colombie-Britannique, que Jesse Van Rootselaar, la tueuse alléguée, avait évoqué des scénarios d’attaques armées lors de conversations avec ChatGPT. La compagnie a mis en œuvre son protocole interne de sécurité et clôturé son compte sans la dénoncer auprès des autorités policières.


En réaction, le ministre canadien de l’Intelligence artificielle et de l’Innovation numérique, Evan Solomon, a sommé OpenAI de clarifier son protocole de sécurité. Le premier ministre de la Colombie-Britannique, David Eby, a pour sa part obtenu que le PDG Sam Altman vienne s’excuser à Tumbler Ridge.

Le coroner en chef de la Colombie-Britannique a lancé une enquête, alors que la famille d’une des victimes hospitalisées poursuit OpenAI au civil. Mais quelle peut être la responsabilité d’OpenAI et quels écueils législatifs doivent être évités ?

Céline Castets-Renard et Emmanuelle Bernheim sont professeures et spécialistes respectivement en droit de l’IA et en droit de la santé mentale. Marianne Ozkan est candidate au doctorat et travaille sur les enjeux sociaux et juridiques soulevés par les agents conversationnels. Ensemble, leurs travaux portent sur l’encadrement juridique des relations intimes entre les personnes et les machines.

La responsabilité d’OpenAI

La plainte de la famille, telle que rapportée, allègue que l’entreprise « avait connaissance précise du projet à long terme du tireur d’organiser un événement causant de nombreuses victimes », mais « n’a pris aucune mesure pour agir sur la base de ces informations », ce qui caractériserait une négligence.

Ceci pose plusieurs difficultés de preuve, à commencer par savoir quel rôle ChatGPT a joué dans la tuerie. Sachant qu’un tel geste est le résultat de causes complexes et multifactorielles, le lien causal de ChatGPT avec la tuerie ne peut qu’être relatif. ChatGPT a-t-il servi d’exutoire à des idées violentes ? A-t-il encouragé ces idées ou aidé à formuler des plans pour commettre ces gestes violents ? La teneur des conversations pourrait apporter quelques éléments de réponse.




À lire aussi :
D’Anthropic à l’Iran : qui fixe les limites de l’utilisation de l’IA dans les domaines de la guerre et de la surveillance ?


Cela convoque une autre question centrale à la reconnaissance de la responsabilité d’OpenAI : le risque de passer à l’acte était-il raisonnablement prévisible ? La distinction entre l’intention et la simple idéation d’idées violentes devra être départagée et remise dans le contexte des informations limitées à disposition d’OpenAI concernant l’utilisatrice.

Une législation spécifique aux IA ?

Ces difficultés de preuve justifient peut-être de créer une législation spécifique pour encadrer les risques de l’IA, afin de ne pas dépendre des règles d’autorégulation établies par les entreprises et des décisions prises par leurs comités de sécurité internes. Le premier ministre Eby considère qu’un seuil national d’alerte et une « obligation de signalement » doivent être établis, ce qui soulève plusieurs interrogations. Quels critères pourraient s’avérer plus fiables que celui de « risque crédible et imminent » utilisé par OpenAI ? N’y a-t-il pas un risque d’atteinte à la vie privée ou de dénonciation erronée, au nom de la prévention ?

D’autres législateurs ont déjà choisi d’encadrer l’IA : l’Union européenne a adopté un règlement en 2024, tandis qu’aux États-Unis, plusieurs législations étatiques ont été adoptées, comme en Californie, ou sont en cours d’élaboration, comme dans l’État de New York pour encadrer les robots conversationnels dits « IA compagnons ».

Les protocoles de sécurité envisagés visent à détecter les idéations violentes et rediriger l’utilisateur vers des ressources d’aide, alors qu’OpenAI fait déjà l’objet de plusieurs poursuites reliées à des suicides ou des psychoses.




À lire aussi :
« Psychose induite par l’IA » : un danger réel pour les personnes à risque, selon un psychiatre


Or, au Canada, aucune loi n’a encore été adoptée sur l’intelligence artificielle ni plus spécifiquement sur les robots conversationnels, depuis l’abandon du projet de loi C-27 qui visait, d’une part, la modernisation de la loi fédérale sur la protection des données personnelles dans le secteur privé (LPRPDE) et, d’autre part, l’encadrement des systèmes d’IA et des données(LIAD).

La pente glissante de la prévention du risque en santé mentale

La discussion actuelle préconise donc une obligation de signalement aux services policiers lorsqu’un risque est identifié dans le cadre de discussions avec un agent conversationnel. Elle se déroule sans considérer les cadres légaux et les pratiques régissant déjà les interventions en santé mentale (intervention policière, admission involontaire, traitements forcés, surveillance en communauté) et qui sont fondés sur la notion de risque.

La police était intervenue à plusieurs reprises pour des enjeux de santé mentale au domicile de Van Rootselaar avant la tuerie. Ses armes lui avaient été retirées, puis remises, et elle avait fait l’objet d’une admission involontaire en vertu de la Loi sur la santé mentale. Dans ce contexte, on peut se demander si un signalement de la part d’OpenAI aurait vraiment pu changer le cours des choses. Rien ne permet de le démontrer.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Dans les dernières décennies, le recours aux services policiers et à la coercition en santé mentale est devenu la norme faute de services accessibles. Le Canada est d’ailleurs le pays où l’hospitalisation involontaire est la plus utilisée.

Ces pratiques visent particulièrement les personnes vivant en situation de pauvreté, racialisées et immigrantes, et leurs effets thérapeutiques ne sont pas démontrés. Au contraire, les effets traumatiques des interventions policières et coercitives résultent en une perte de confiance et en une réticence à demander de l’aide lorsque nécessaire. En somme, elles n’améliorent pas l’accès aux soins et sont empreintes de violations des droits et de violence policière.

C’est ce qui a mené plusieurs villes canadiennes, mais aussi américaines, à retirer les interventions de crise de la compétence des services de police, et à abolir en tout ou en partie les équipes mixtes de police (policiers et professionnels de la santé ou des services sociaux). Par exemple, la ville de Toronto a confié les « wellness check » et les interventions de crise à une équipe communautaire, et la ville de Vancouver a confié le triage des appels en santé mentale à des infirmières, offrant une réponse non policière et « plus appropriée » à 54 % des appels.

Repenser le système

Les discussions sur les obligations de signalement aux autorités policières nous invitent à insérer OpenAI dans le système existant de gestion des risques en santé mentale sans toutefois nous inciter à réfléchir aux limites de ce système ni à envisager les enjeux structuraux à l’œuvre. Or, dans un contexte où Van Rootselaar avait fait l’objet de plusieurs interventions policières et psychiatriques dans les dernières années, ne devrait-on pas considérer l’approche en santé mentale fondée sur les risques comme un échec ? Il revient maintenant à l’enquête du Coroner de mettre au jour les failles d’un système de santé qui vise plus à gérer des risques qu’à prendre soin des humains.

Si la tuerie de Tumbler Ridge nous enjoint à réfléchir aux moyens d’empêcher de tels drames, elle doit aussi nous interpeller sur les causes du recours aux agents conversationnels et aux conditions de prise en charge de la santé mentale. Tumbler Ridge nous montre l’urgence d’adopter un cadre légal pour l’IA – et particulièrement pour les agents conversationnels – afin que les obligations imposées aux fournisseurs de ces technologies tiennent compte de la variété des risques que leurs produits peuvent engendrer. Chose certaine, la solution ne peut pas être d’appliquer une réponse unique comme le signalement à la police.

La Conversation Canada

Marianne Ozkan a reçu des financements des Fonds de recherche du Québec (FRQ).

Céline Castets-Renard et Emmanuelle Bernheim ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Tuerie de Tumbler Ridge. Quelle est la responsabilité d’OpenAI ? – https://theconversation.com/tuerie-de-tumbler-ridge-quelle-est-la-responsabilite-dopenai-276927