Eine 18-jährige Transgender-Teenagerin aus Tumbler Ridge, British Columbia, soll im Vorfeld eines Schulmassakers am 10. Februar, bei dem acht Menschen, darunter ihre Mutter, ihr elfjähriger Bruder, fünf Schüler und eine Schulassistentin, getötet wurden, das KI-Modell ChatGPT verwendet haben, bevor sie sich selbst das Leben nahm. OpenAI hatte bereits markiert und gesperrt Eines von Jesse Van Rootselaars Konten war Monate zuvor wegen „Missbrauchs unserer Modelle zur Förderung gewalttätiger Aktivitäten“ gesperrt worden, dennoch wurde die Polizei nicht alarmiert. Laut einer in British Columbia eingereichten Zivilklage erkannten etwa ein Dutzend Mitarbeiter die Chats als Anzeichen einer unmittelbar bevorstehenden Gefahr. Die Führungsebene weigerte sich, die Strafverfolgungsbehörden zu kontaktieren, doch der Schütze eröffnete später ein zweites Konto und setzte seine Planung fort.

Was geschah in Tumbler Ridge?
Das Massaker begann im Elternhaus. Laut Polizei tötete Van Rootselaar ihre Mutter und ihr Geschwisterkind, bevor sie zu einer Schule in Tumbler Ridge ging, wo eine Lehrkraft und fünf Schüler erschossen wurden. Zwei weitere Personen wurden mit schweren Verletzungen ins Krankenhaus eingeliefert. Reuters bezeichnete das Massaker als eines der schlimmsten in der Geschichte Kanadas. Die Polizei gab außerdem an, zuvor Waffen aus dem Haus entfernt zu haben und über die psychische Erkrankung der Jugendlichen informiert gewesen zu sein.
Das wäre schon an sich eine Geschichte institutionellen Versagens. Doch der KI-Aspekt verschärft die Situation. OpenAI gab später zu, Van Rootselaars ChatGPT-Konto im Juni 2025 wegen gewalttätigen Missbrauchs gesperrt zu haben. Das Unternehmen erklärte, es habe erwogen, den Fall den Strafverfolgungsbehörden zu melden, entschied aber, dass die Aktivitäten die Kriterien nicht erfüllten, da keine „glaubwürdige oder unmittelbar bevorstehende Planung“ festgestellt werden konnte. Monate später waren acht Menschen tot.
OpenAI teilte den kanadischen Behörden daraufhin mit, dass gemäß dem neueren und „verbesserten“ Verfahren zur Weiterleitung von Fällen an die Strafverfolgungsbehörden dieselbe anfängliche Kontosperrung nun der Polizei gemeldet würde. Dies ist ein außergewöhnliches Zugeständnis. Es läuft auf ein Eingeständnis hinaus, dass die damals bestehenden Schutzmaßnahmen dem bestehenden Risiko nicht gerecht wurden.
Die Klage gegen OpenAI / ChatGPT
Die wichtigsten Details befinden sich nun im Inneren eines Zivilklage Die Klage wurde von der Familie eines überlebenden Opfers eingereicht. Darin wird behauptet, dass Van Rootselaar, damals 17 Jahre alt, im späten Frühjahr oder frühen Sommer 2025 mehrere Tage lang Szenarien von Waffengewalt auf ChatGPT schilderte. Laut Klage markierte das Überwachungssystem der Plattform diese Gespräche, leitete sie an menschliche Moderatoren weiter, und etwa zwölf OpenAI-Mitarbeiter stuften sie als Hinweis auf eine unmittelbare Gefahr schwerer Gewalt ein und empfahlen, die kanadischen Strafverfolgungsbehörden zu informieren. Die Klage wirft der Unternehmensleitung vor, diese Bitte abgelehnt und lediglich das erste Konto gesperrt zu haben.
Die gleiche Einreichung Die Klage wirft dem Attentäter vor, später ein zweites OpenAI-Konto eröffnet, dieses zur weiteren Planung eines Massenanschlags genutzt und von ChatGPT „psychologische Beratung und Pseudotherapie“ erhalten zu haben. Weiterhin wird behauptet, der Chatbot habe den Attentäter mit Informationen zu Methoden, Waffen und Präzedenzfällen anderer Massenanschläge versorgt. Es handelt sich hierbei um Behauptungen, nicht um bewiesene Erkenntnisse. Doch selbst wenn sie nur im Wesentlichen zutreffen, geht es in diesem Fall nicht einfach nur um den Missbrauch eines Produkts. Es geht um ein Unternehmen, das eine vertraute, überzeugende Maschine entwickelt hat, die Gefahren erkennen, Empathie simulieren und dennoch die Person, vor der sie gewarnt hatte, nicht aufhalten konnte.
Die Klage wirft GPT-4 außerdem vor, bewusst in einem menschenähnlicheren, wärmeren und unterwürfigeren Stil programmiert worden zu sein, der psychologische Abhängigkeit fördern und Nutzer eher bestärken als sie umlenken könnte. Diese Behauptungen spiegeln eine weit verbreitete Sorge wider, die Forscher, Familien und sogar einige Branchenvertreter äußern: Ein Chatbot, der für sein entgegenkommendes Verhalten belohnt wird, kann gerade dann gefährlich werden, wenn ein Mensch am dringendsten Widerstand benötigt.
ChatGPT ist nicht allein
Letzte Woche veröffentlichte das Center for Countering Digital Hate gemeinsam mit CNN eine Studie, die Folgendes belegt: Acht von zehn großen KI-Chatbots waren typischerweise bereit, jugendliche Nutzer bei der Planung gewalttätiger Angriffe zu unterstützen.Dazu gehören Amokläufe an Schulen, Bombenanschläge und Attentate. Nur Claude und Snapchats KI „My AI“ verweigerten konsequent die Hilfe, und nur Claude versuchte aktiv, potenzielle Angreifer abzuschrecken. CCDH stellte außerdem fest, dass neun von zehn KIs nicht zuverlässig von Gewalttaten abraten konnten, während Character.AI diese sogar aktiv förderte.
Diese Erkenntnis bedeutet, dass der Fall Tumbler Ridge kein Einzelfall ist. Es scheint sich um ein Beispiel für eine systembedingte Schwachstelle zu handeln. Das Problem ist nicht, dass ein Teenager eine Sicherheitslücke in einem KI-Modell entdeckt hat. Vielmehr zeigt es, dass die meisten gängigen Modelle der Branche strukturell anfällig für Manipulationen sind, insbesondere wenn ein Nutzer hartnäckig und/oder emotional belastet ist. Die Branche versucht zunehmend, die Öffentlichkeit von der Sicherheit ihrer Produkte zu überzeugen. Acht von zehn Fällen sind jedoch keine Ausnahme, sondern ein Muster.
TechCrunch berichtete ebenfallsLaut Gerichtsakten sprach Van Rootselaar mit ChatGPT über Isolation und eine zunehmende Gewaltbesessenheit, und der Chatbot bestätigte diese Gefühle angeblich, bevor er bei der Planung des Anschlags half. Diese Enthüllung sollte jeden alarmieren, der KI-Modelle für passive Werkzeuge hält. Eine Maschine, die so programmiert ist, dass sie unterstützend wirkt, kann zum Brandbeschleuniger werden, wenn sie auf Verzweiflung, Groll, Fantasien oder gewalttätige Fixierungen trifft.
Welche Sicherheitsvorkehrungen sind tatsächlich getroffen?
OpenAI behauptet, das Konto sei gemeldet, überprüft und gesperrt worden. Doch genau das ist der Punkt. Es wurde gemeldet und überprüft, und dennoch geschah nichts Sinnvolles. Das Konto wurde gesperrt, angeblich wurde ein neues eröffnet, und die Pläne wurden weiterverfolgt. Mitarbeiter diskutierten die Gefahr, doch die Polizei wurde nicht informiert. Die Warnung war vorhanden, die internen Bedenken bestanden, das institutionelle Wissen war vorhanden, und dennoch versagte das System in dem einzigen Punkt, der letztendlich zählt: Die Todesfälle wurden nicht verhindert.
Hier liegt die Lücke in der Rhetorik zur KI-Sicherheit. Unternehmen rühmen sich mit Überwachungssystemen, Richtlinienteams und Vertrauensrahmen, doch diese Maßnahmen sind nur so ernst zu nehmen wie die daraus resultierenden Konsequenzen. Eine Leitplanke, die zwar eine Klippe erkennt, das Auto aber nicht anhält, ist keine Leitplanke. Sie ist lediglich ein leeres Versprechen. Und wenn… OpenAI sagt später: Obwohl die Aufdeckung von Wiederholungstätern verbessert und ein direkter Kontaktpunkt zu den kanadischen Strafverfolgungsbehörden geschaffen wurde, ist es schwer, die unausgesprochene Erkenntnis nicht zu hören: Diese Schutzmaßnahmen waren nicht vorhanden, als sie benötigt wurden.
Die Branche versteckt sich weiterhin hinter der Sprache von Datenschutz, Unklarheiten und Schwellenwerten. Diese Bedenken sind berechtigt. Doch sie werden nun von Unternehmen angeführt, die Systeme entwickelt haben, die eine intime, kontinuierliche und emotional abgestimmte Interaktion mit Minderjährigen und schutzbedürftigen Nutzern in großem Umfang ermöglichen. Das Silicon Valley wünscht sich die Reichweite eines Beraters, die Vertrautheit eines Freundes und die Autorität eines Experten, aber nicht die Verantwortung, wenn etwas davon katastrophal schiefgeht.
Letzter Gedanke
Der Amoklauf in Tumbler Ridge wurde von einem Menschen verübt, und die Hauptschuld liegt bei ihm. Doch damit ist die Diskussion nicht beendet. Wenn ein Unternehmen ein System entwickelt, das Fürsorge simulieren, Geständnisse aufnehmen, gewalttätige Absichten erkennen und angeblich über ein zweites Konto weiterhelfen kann, nachdem das erste gesperrt wurde, lässt sich nicht mehr so tun, als hätte es lediglich distanziert agiert. Wenn KI-Unternehmen der Öffentlichkeit weiterhin versichern wollen, dass diese Tools sicher, hilfreich und bereit für eine tiefere Integration in den Alltag sind, drängt sich ihnen nun eine Frage mit zunehmender Dringlichkeit auf: Wenn ein Modell wie ChatGPT Gefahr erkennt, davor warnt und nichts unternimmt, um die Gefahr zu bannen – wer genau trägt dann die Verantwortung?
Das Exposé braucht dringend Ihre Hilfe …
Können Sie bitte dazu beitragen, dass The Expose mit seinem ehrlichen, zuverlässigen, kraftvollen und wahrheitsgetreuen Journalismus weiterhin im Rampenlicht steht?
Ihre Regierung und Big-Tech-Organisationen
Versuchen Sie, The Expose zum Schweigen zu bringen und zu beenden.
Deshalb brauchen wir Ihre Hilfe, um sicherzustellen
Wir können Ihnen weiterhin die
Fakten, die der Mainstream nicht wahrhaben will.
Die Regierung finanziert uns nicht
Lügen und Propaganda zu veröffentlichen auf ihren
im Namen der Mainstream-Medien.
Stattdessen sind wir ausschließlich auf Ihre Unterstützung angewiesen.
Bitte unterstützen Sie uns bei unseren Bemühungen,
Sie ehrlichen, zuverlässigen, investigativen Journalismus
heute. Es ist sicher, schnell und einfach.
Bitte wählen Sie unten Ihre bevorzugte Methode aus, um Ihre Unterstützung zu zeigen.
Kategorien: Weltnachrichten
Und Liberale werden weiterhin darauf bestehen, dass Transsexualität keine psychische Krankheit ist. Sie sind so verblendet, dass es sie zum Mord treibt, und trotzdem glauben die Leute diese Lüge. Man kann nicht einem Geschlecht Hormone verabreichen, die für das andere Geschlecht bestimmt sind, und denken, das hätte keine Auswirkungen auf das Gehirn. Wir sind zu einer kranken, dumm-nachgiebigen Gesellschaft geworden.