OpenAI zeigt laut einem Schreiben der Verbraucherschutzorganisation Public Citizen eine „rücksichtslose Missachtung“ der Produktsicherheit, des Rechts auf das eigene Abbild und sogar der Stabilität der Demokratie. Die Videoplattform Sora wird typischerweise für kurze Social-Media-Inhalte genutzt, die unterhaltsam genug sind, um Likes und Shares zu generieren. Beliebt sind gefälschte Aufnahmen von Türklingelkameras, in denen etwas Ungewöhnliches passiert, das aber dennoch glaubwürdig wirkt – beispielsweise ein Känguru, das an der Tür klingelt, oder eine amüsante Straßenszene. Doch die Software könnte schnell zu einer Gefahr für uns alle werden.
Public Citizen hat OpenAI dringend aufgefordert, Sora aus dem öffentlichen Angebot zu nehmen, da es sich um eine leichtsinnige Veröffentlichung handle, die Deepfakes, Identitätsdiebstahl und Desinformation bei Wahlen massiv begünstige. Ist es wirklich so schlimm, wie behauptet wird?

Die Gefahr von Deepfakes
Public Citizen hat einen Brief an OpenAI und den US-Kongress geschrieben und gefordert, Sora offline zu nehmen, bis robuste und überprüfbare Sicherheitsvorkehrungen implementiert sind. Die Organisation argumentiert, die App sei unverantwortlich früh veröffentlicht worden, um sich Wettbewerbsvorteile zu verschaffen, ohne die notwendigen Sicherheitsmaßnahmen zu berücksichtigen. Die unbefugte Verwendung von Abbildungen und weitverbreitete Täuschung stellen die größten Risiken dar, da sich synthetische Videos schneller verbreiten, als die Öffentlichkeit ihre Echtheit überprüfen kann.
JB Branch, Technologiepolitik-Befürworter bei Public Citizen und Verfasser des Briefes, sagt: „Unsere größte Sorge gilt der potenziellen Bedrohung der Demokratie. Ich glaube, wir bewegen uns auf eine Welt zu, in der die Menschen dem, was sie sehen, nicht mehr wirklich trauen können. Und wir beobachten bereits Strategien in der Politik, bei denen das erste veröffentlichte Bild oder Video das ist, was den Menschen im Gedächtnis bleibt.“
Branch fuhr fort: „Sie geben Vollgas, ohne Rücksicht auf Schäden. Vieles davon scheint vorhersehbar. Aber sie wollen lieber ein Produkt auf den Markt bringen, es zum Herunterladen animieren und süchtige Nutzer gewinnen, anstatt das Richtige zu tun, diese Dinge vorher gründlich zu testen und sich um die Probleme der normalen Nutzer zu kümmern.“
OpenAI verursachte Selbstmorde, behauptet eine Klage
Sieben neue Klagen, die letzte Woche vor kalifornischen Gerichten eingereicht wurden, werfen dem Chatbot vor, Menschen in den Selbstmord getrieben und zu gefährlichen Wahnvorstellungen verleitet zu haben, selbst wenn diese zuvor keine psychischen Probleme hatten. Im Namen von sechs Erwachsenen und einem Jugendlichen reichten das Social Media Victims Law Center und das Tech Justice Law Project Klagen ein, in denen sie OpenAI vorwerfen, die Version GPT-4 im vergangenen Jahr wissentlich vorzeitig veröffentlicht zu haben, obwohl interne Warnungen vor deren gefährlicher Unterwürfigkeit und psychologischer Manipulation vorlagen. Vier der Opfer begingen Selbstmord.
Public Citizen ist nicht an den Klagen beteiligt, teilt aber die darin geäußerten Bedenken. Branch erklärt, OpenAI blockiere zwar Nacktheit, dennoch würden Frauen online auf andere Weise belästigt. Ein Bericht von 404 Media enthüllte vergangene Woche eine Flut von Videos, die mit Sora erstellt wurden und Frauen beim Würgen zeigen.
Wozu werden Sora AI-Videos verwendet?
Sora ermöglicht es jedem, filmische Fälschungen zu erstellen – von fiktiven Türklingelszenen über lippensynchrone Prominente bis hin zu fotorealistischen Mini-Dramen, die wie Augenzeugenaufnahmen wirken. Diese Clips sollen lustig, teilbar und verblüffend sein – letztendlich für einen Dopamin-Schub. Doch beim Teilen auf Online-Plattformen geht der Kontext verloren, und viele nehmen sie für echt.
Die Washington Post testete diese Theorie. Sie lud ein von Sora erstelltes gefälschtes Video mit manipulationssicheren Inhaltsnachweisen auf acht große Plattformen hoch. Nur eine Plattform – YouTube – erkannte und gab den gefälschten Charakter des Videos bekannt, versteckte den Hinweis jedoch in der Videobeschreibung. Wenn Plattformen nicht klar zwischen echt und gefälscht unterscheiden können oder wollen, gibt es keine Möglichkeit, Zuschauer vor irreführenden Inhalten zu schützen.
Wo es schiefgehen könnte – und es bereits schiefgegangen ist
- WahlenEine Handvoll realistischer Fälschungen, wie etwa vorgetäuschte Polizeischüsse, gefälschte Geständnisse von Kandidaten und gefälschte außenpolitische Berichte, können die Wahlbeteiligung beeinflussen und Unruhen auslösen, lange bevor Faktenprüfungen durchgeführt werden können. Public Citizen warnt vor Soras Auswirkungen auf die Stabilität der Demokratie.
- Belästigung und ErpressungNicht einvernehmliche sexuelle Deepfakes, Rufschädigung und allgemeine Erpressungskampagnen sind bereits bei Standbildern ein Problem – Video vervielfacht den Schaden.
- Falschmeldungen zur öffentlichen SicherheitGefälschte Katastrophenvideos oder Notfallwarnungen verbreiten sich schneller als korrekte Meldungen und verwirren Einsatzkräfte und die Öffentlichkeit. Soras verblüffender Realismus im Alltag ist unübertroffen, und die Unterscheidung ist schwieriger denn je.
- WirtschaftsbetrugSynthetische Videos von CEOs, Persönlichkeiten des öffentlichen Lebens oder bekannten Influencern können klassische Betrugsmaschen mit gefälschter Stimme oder E-Mail-Adresse ermöglichen und Mitarbeiter oder Privatpersonen dazu verleiten, Geld zu überweisen. Stimmenklonen wird bereits von Banken eingesetzt – man stelle sich nur die Möglichkeiten gefälschter Videos vor.
Was OpenAI nach eigenen Angaben unternimmt, um Gefahren zu begegnen
OpenAI hat damit begonnen, Gastauftritte von Persönlichkeiten des öffentlichen Lebens einzuschränken und Nutzern die Möglichkeit gegeben, „KI-Selbstbilder“ zu steuern, in denen ein persönlicher Avatar erscheinen kann. Einerseits erkennen sie das Risiko deutlich an. Andererseits gehen sie das Problem nicht vollständig an. Sie erklärten, dass „übermäßige Moderation extrem frustrierend“ für neue Nutzer sei und dass es wichtig sei, vorsichtig zu sein, „solange sich die Welt noch an diese neue Technologie gewöhnt“.
Im Oktober gaben sie öffentlich Vereinbarungen mit der Familie von Martin Luther King Jr. bekannt, die „respektlose Darstellungen“ des Bürgerrechtlers verhindern sollten, während das Unternehmen an besseren Sicherheitsvorkehrungen arbeitete. OpenAI verkündete dieselbe Vereinbarung auch mit bekannten Schauspielern, der Gewerkschaft SAG-AFTRA und Künstleragenturen.
„Das mag ja alles schön und gut sein, wenn man berühmt ist“, sagte Branch, wies aber auf ein anderes Problem hin. „Es ist irgendwie ein Muster bei OpenAI, dass sie bereit sind, auf die Empörung einer sehr kleinen Gruppe zu reagieren. Sie sind bereit, etwas zu veröffentlichen und sich hinterher zu entschuldigen. Aber viele dieser Probleme sind Designentscheidungen, die sie vor der Veröffentlichung hätten treffen können.“
Das größere Bild der KI
Der Brief von Public Citizen erscheint inmitten der wachsenden Erkenntnis, dass wir Plattformen entwickeln, die Täuschung so einfach wie nie zuvor machen, anstatt Systeme zu schaffen, die davor schützen. Sora-Videos können fesselnd sein, sind aber beim schnellen Durchscrollen kaum von echten Videos zu unterscheiden. Ohne glaubwürdige Kennzeichnungen, die den Nutzern die synthetischen Inhalte verdeutlichen, gewöhnen wir die Öffentlichkeit an gefälschte Inhalte und lassen sie letztendlich nicht mehr zwischen echten und gefälschten Inhalten unterscheiden können.
OpenAI hat Deepfakes nicht erfunden, und die Konkurrenz wird alles daransetzen, sie nachzuahmen. Wahre Führungsstärke würde bedeuten, das Tempo zu drosseln, bis die notwendigen Sicherheitsvorkehrungen getroffen sind, anstatt so schnell vorzugehen, dass wir den richtigen Schutz nie gewährleisten können. In der Zwischenzeit werden sich Verbraucherschützer weiterhin dafür einsetzen, dass Deepfakes aus dem öffentlichen Bereich entfernt werden, bis jeder zwischen Fakten und Fiktion unterscheiden kann.
Letzter Gedanke
Könnten Sie die neuesten KI-Videos Ihrer Meinung nach sicher von der Realität unterscheiden? Was ist das größte Risiko, wenn diese Technologie für alle verfügbar ist? Was können wir dagegen tun? Teilen Sie Ihre Gedanken unten mit.
Das Exposé braucht dringend Ihre Hilfe …
Können Sie bitte dazu beitragen, dass The Expose mit seinem ehrlichen, zuverlässigen, kraftvollen und wahrheitsgetreuen Journalismus weiterhin im Rampenlicht steht?
Ihre Regierung und Big-Tech-Organisationen
Versuchen Sie, The Expose zum Schweigen zu bringen und zu beenden.
Deshalb brauchen wir Ihre Hilfe, um sicherzustellen
Wir können Ihnen weiterhin die
Fakten, die der Mainstream nicht wahrhaben will.
Die Regierung finanziert uns nicht
Lügen und Propaganda zu veröffentlichen auf ihren
im Namen der Mainstream-Medien.
Stattdessen sind wir ausschließlich auf Ihre Unterstützung angewiesen.
Bitte unterstützen Sie uns bei unseren Bemühungen,
Sie ehrlichen, zuverlässigen, investigativen Journalismus
heute. Es ist sicher, schnell und einfach.
Bitte wählen Sie unten Ihre bevorzugte Methode aus, um Ihre Unterstützung zu zeigen.
Kategorien: Wussten Sie schon?
Ich habe immer gesagt, KI sollte zerstört werden. Am besten wäre es, sie gar nicht erst zu entwickeln. Jetzt ist es zu spät. Das Geheimnis ist gelüftet, wir wurden hinters Licht geführt. Wir können die Überwachungskameras gleich abschaffen, denn digitale Aufnahmen sind ohnehin wertlos. Digitale Ausweise? Auf keinen Fall, viel zu riskant. Die Menschheit merkt gerade, dass KI eine schlimmere Erfindung ist als die Atombombe. Wissenschaftler gehören von der Gesellschaft isoliert. Sie lassen sich leicht bestechen … Klimawandel-Schwindel, Corona-Schwindel, und sie richten großen Schaden an …
Ja, ich stimme zu, KI in ihrer jetzigen Form muss verschwinden! Sie ist sehr gefährlich, insbesondere für Kinder!
Das ist gut so. Künstliche Intelligenz ist relativ neu, daher wird es eine Weile dauern, bis die breite Öffentlichkeit versteht, dass man absolut nichts im Internet vertrauen kann. Die KI, die Fälschungen generiert, trägt dazu bei.
Bald werden die meisten Menschen wissen, dass man dem Ganzen nicht trauen kann. Das hätte man natürlich schon immer wissen müssen, aber diese Erkenntnis wird sich schnell auch bei den Dümmsten durchsetzen.
Lesen Sie den gesamten Artikel. Die sogenannte „Gefahr“ geht nicht von den Lügen selbst aus, sondern von den Menschen, die Lügen glauben. Selbst einige der dümmsten Menschen verstehen mittlerweile, dass Politiker sie belügen.
Wie viele Menschen können schon sagen: „Mensch, mir wurde noch nie in meinem Leben etwas vorgelogen, bis ich mir ein KI-Video angesehen habe.“ Die sogenannte „Sicherheitsmotivation“ ist nie mehr als ein Versuch der Zensur und Kontrolle.
Ein Verrückter verübt einen Amoklauf, weil Stimmen in seinem Kopf ihm befehlen, Menschen zu töten? Stimmen im Kopf sind eine Gefahr für alle! Lasst uns Stimmen im Kopf verbieten!
Hallo Plebney,
Es ist interessant, die Sache einmal von der anderen Seite zu betrachten: Vielleicht beschleunigt das ja die Erkenntnis, dass man dem Ganzen nicht trauen kann. Meine Sorge ist nur, dass das momentan nicht der Fall zu sein scheint; stattdessen konsumieren die Leute alles, egal ob sie es für wahr halten oder nicht. Es wirkt fast so, als wäre es den meisten egal, solange sie nur 15 Sekunden unterhalten werden. Wir werden es wohl bald herausfinden.
Herzliche Ostergrüsse,
G Calder
Guter Artikel! Es ist natürlich nicht nur Sora – mittlerweile gibt es viele. Ich habe Googles Veo3 benutzt, um einen Kurzfilm zu machen (mein erster Versuch, und es war gar nicht so einfach!). https://panocracy.substack.com/p/panocracy-the-movie-introduction)
Ich denke, dass Menschen alle Informationen aus dem Rundfunk durch die Brille ihrer eigenen Vorurteile betrachten. Wenn man ein Anhänger von Herrn Trump ist, wird man negativer Presse über ihn skeptisch begegnen und positive akzeptieren. Dasselbe gilt für Herrn Starmer usw.
Die anhaltende Situation, in der die BBC Aufnahmen von Trump für ihre Panorama- und Newsnight-Sendungen manipuliert, zeigt (falls dies überhaupt noch nötig war), dass Fehlinformationen/Desinformation nicht auf KI beschränkt sind.
Ich habe festgestellt, dass vor allem Angehörige der akademischen Schichten anfällig für Fehlinformationen sind. Die Arbeiterklasse neigt dazu, fast alles als Managementtrick abzutun! Diejenigen, deren Lebensunterhalt vom geschriebenen und gesprochenen Wort abhängt, sind deutlich leichtgläubiger.
Lange bevor diese KI in den Vordergrund trat, bedienten sich aufeinanderfolgende Regierungen regelmäßig aller Arten von Täuschung.
Offenbar gibt es auch keine Verantwortlichkeit.
🙏🙏
Was die Bibel über dieses schreckliche Jahrzehnt sagt, das vor uns liegt. Hier ist eine Website, die aktuelle globale Ereignisse im Licht der Prophezeiung der Bibel erläutert. Um mehr zu erfahren, besuchen Sie bitte 👇 https://bibleprophecyinaction.blogspot.com/
Mein Sohn hat eine App, die er ganz unschuldig benutzt… Er ist momentan total wetterbegeistert, besonders von Tornados. Er hat Videos erstellt, indem er draußen gefilmt und dann Tornados simuliert hat, die Häuser in der Umgebung zerstören und Trümmer hinterlassen. Die sehen tatsächlich ziemlich realistisch aus!… Das Problem ist nur, dass die App auch für kriminelle Zwecke missbraucht werden könnte. Wer weiß, ob der nächste False-Flag-Anschlag auf diese Weise inszeniert wird… Wir hatten ja schon 9/11 und 7/7 lange vor dieser Technologie!
„Stabilität der Demokratie“???
Demokratie ist die Das ultimative Sinnbild der Instabilität – ein einbeiniger Mann ist stabiler!
Ihre Leser dürften inzwischen doch erkennen, dass die Demokratie „für ungenügend“ befunden wurde?
Vše, jak se zdá, už tady bylo řečeno. Co dál? Nedělejme si luze. Džiň (Kraken) byl vypuštěn. Tohle už nikdo nezastaví. Poslední zhasne. Přeji hezký den.
Poslední zhasne.