Wenn es jemals einen Fall von „Müll rein, Müll raus“ gab, dann ist es KI. Und letztlich wurde alles von dem Ziel getrieben, Informationen zu zensieren, die nicht in das politisch korrekte Narrativ passen.
Lassen Sie uns den Kontakt nicht verlieren… Ihre Regierung und Big Tech versuchen aktiv, die von The Exposed um ihre eigenen Bedürfnisse zu erfüllen. Abonnieren Sie jetzt unsere E-Mails, um sicherzustellen, dass Sie die neuesten unzensierten Nachrichten erhalten in Ihrem Posteingang…
Warum KI-Algorithmen und -Forschung zur „Fehlinformation“ größtenteils teurer Müll sind
Die Geschichte des Laptops von Hunter Biden ist nur eine von vielen Geschichten, die von den Konzernmedien (und den meisten Akademikern) als „Fehlinformation“, die sich aber später als wahr herausstellten. Tatsächlich hat Mark Zuckerberg nun zugegeben, dass Facebook (Meta) zusammen mit den anderen großen Technologieunternehmen unter Druck gesetzt wurde, Zensieren die Geschichte vor der US-Wahl 2020 und wurde anschließend von der Biden/Harris-Regierung unter Druck gesetzt, Geschichten über Covid zu zensieren, die fälschlicherweise als Fehlinformation eingestuft wurden.
Das Problem besteht darin, dass dieselben Leute, die darüber entschieden, was Fehlinformation ist und was nicht (im Allgemeinen Leute aus dem politischen Linken), auch diejenigen waren, die Gelder für die Entwicklung von Algorithmen künstlicher Intelligenz („KI“) zum „Lernen“ erhielten:
- welche Personen „Verbreiter von Fehlinformationen“ waren; und
- welche neuen Behauptungen „Fehlinformationen“ seien.
Zwischen 2016 und 2022 besuchte ich in Großbritannien zahlreiche Forschungsseminare zum Einsatz von KI und maschinellem Lernen zur „Bekämpfung von Fehlinformationen und Desinformation“. Ab 2020 wurde Hunter Bidens Laptop oft als zentrales Lernbeispiel verwendet, sodass Algorithmen ihn als „Fehlinformation“ mit Unterklassifizierungen wie „russische Propaganda“ oder „Verschwörungstheorie“ klassifizierten.
Darüber hinaus begann jede Präsentation, die ich besuchte, ausnahmslos mit Beispielen von „Fehlinformationen“, die angeblich auf „Trump-Lügen“ beruhten, und war von diesen dominiert. Die Washington Post behauptet wurden, waren die „30,573 falschen oder irreführenden Behauptungen, die Trump über 4 Jahre hinweg aufgestellt hat“. Aber viele dieser angeblich falschen oder irreführenden Behauptungen waren bereits jedem außerhalb der Guardian/New York Times/Die Washington Post Leseblase. Sie behaupteten beispielsweise, Trump habe gesagt: „Neonazis und weiße Rassisten seien sehr feine Menschen“ und jeder, der das leugne, verbreite Falschinformationen, während selbst die extrem linksgerichteten Snopes hätten entlarvt dass im Jahr 2017. Ebenso behaupteten sie, dass „Beweise dafür, dass Biden Demenz hatte“ oder dass „Biden gern an den Haaren junger Mädchen roch“ Fehlinformation trotz mehrerer Videos, die genau das zeigen – also trauen Sie Ihren lügenden Augen nicht; tatsächlich waren die Konzernmedien noch eine Woche, bevor Bidens Demenz während seiner Live-Präsenz in der Präsidentschaftsdebatte nicht länger verborgen werden konnte, unnachgiebig dass solche Videos Desinformation und „billige Tricks“ seien.

Doch die Akademiker, die diese Trump-, Biden- und anderen politischen Beispiele präsentierten, verspotteten jeden, der es wagte, die Glaubwürdigkeit der selbsternannten Orakel in Frage zu stellen, die darüber entschieden, was Falschinformation war und was nicht. Bei einer großen Konferenz, die über Zoom stattfand, postete ich im Chat: „Ist jeder, der Trump nicht hasst, in diesem Meeting willkommen?“ Die Antwort war: „Nein. Trump-Anhänger sind nicht willkommen, und wenn Sie einer sind, sollten Sie jetzt gehen.“ Traurigerweise glauben die meisten Akademiker nicht an die Gedankenfreiheit, geschweige denn an die Meinungsfreiheit, wenn es um Ansichten geht, die die „progressive“ Sichtweise in Frage stellen.
Neben den Biden- und Trump-bezogenen „Fehlinformationen“, die sich als wahr herausstellten, gab es auch zahlreiche Beispiele für Covid-bezogene Geschichten (wie etwa solche über sehr niedrige Sterblichkeitsraten und mangelnde Wirksamkeit und Sicherheit der Impfstoffe), die als Fehlinformationen eingestuft wurden und sich ebenfalls als wahr herausstellten. In all diesen Fällen wurde jeder, der diese Geschichten verbreitete, als „Verbreiter von Fehlinformationen“, „Verschwörungstheoretiker“ usw. eingestuft. Und es sind diese Art von Annahmen, die die Funktionsweise der KI-„Fehlinformations“-Algorithmen bestimmen, die von Organisationen wie Facebook und Twitter entwickelt und implementiert wurden.
Ein vereinfachtes Beispiel: Die Algorithmen basieren in der Regel auf einer Datenbank mit Aussagen, die entweder als „Fehlinformation“ (auch wenn sich viele davon als wahr herausstellten) oder als „keine Fehlinformation“ (auch wenn sich viele davon als falsch herausstellten) vorklassifiziert wurden. So wurden beispielsweise die folgenden Aussagen als Fehlinformation klassifiziert:
- „Hunter Biden hat einen Laptop mit Beweisen für sein kriminelles Verhalten in einer Reparaturwerkstatt zurückgelassen.“
- „Die Covid-Impfstoffe können schwere Verletzungen und den Tod verursachen.“
Das Gegenteil jeder Aussage, die als „Fehlinformation“ eingestuft wurde, wurde als „keine Fehlinformation“ eingestuft.
Eine Teilmenge dieser Anweisungen wird zum „Trainieren“ des Algorithmus verwendet, andere zum „Testen“ des Algorithmus.
Nehmen wir also an, die Laptop-Aussage dient zum Trainieren des Algorithmus und die Impfstoff-Aussage zum Testen des Algorithmus. Da die Laptop-Aussage als Falschinformation klassifiziert wird, lernt der Algorithmus, dass Personen, die einen Tweet mit der Laptop-Aussage reposten oder liken, „Falschinformationsverbreiter“ sind. Basierend auf anderen Posts dieser Personen könnte der Algorithmus sie zusätzlich beispielsweise als „rechtsextrem“ klassifizieren. Der Algorithmus wird wahrscheinlich feststellen, dass einige Personen, die bereits als „rechtsextrem“ oder „Falschinformationsverbreiter“ eingestuft sind – oder Personen, mit denen sie in Verbindung stehen – auch eine Aussage wie diese posten: „Die Covid-Impfstoffe können schwere Verletzungen und den Tod verursachen.“ In diesem Fall hat der Algorithmus „gelernt“, dass es sich bei dieser Aussage höchstwahrscheinlich um eine Falschinformation handelt. Und schwupps: Da er der „Test“-Aussage die „richtige“ Klassifizierung zuweist, ist der Algorithmus „validiert“.
Darüber hinaus wird der Algorithmus auch dann „richtig lernen“, wenn ihm eine neue Testaussage wie „Die Covid-Impfstoffe verhindern keine Covid-Infektion“ (die ebenfalls vorab als „Fehlinformation“ eingestuft wurde) vorgelegt wird, dass es sich um eine „Fehlinformation“ handelt, da er bereits „gelernt“ hat, dass die Aussage „Die Covid-Impfstoffe können schwere Verletzungen und den Tod verursachen“ eine Fehlinformation ist und dass Personen, die die letztere Aussage behaupteten – oder mit ihnen in Verbindung stehende Personen – auch die erstere Aussage behaupteten.
Die Art und Weise, wie ich den KI-Prozess zur Erkennung von „Fehlinformationen“ beschrieben habe, ist auch die Art und Weise, wie „weltweit führende Experten für Fehlinformationen“ ihr Experiment um den „Persönlichkeitstyp“ zu „profilieren“, der anfällig für Fehlinformationen ist. Dieselben Methoden werden jetzt auch verwendet, um Profil und Monitor Menschen, die laut den akademischen „Experten“ „rechtsextrem“ oder rassistisch sind.
Daher wurde (und wird) enorm viel Forschung in die Entwicklung „intelligenter“ Algorithmen investiert, die die Wahrheit im Internet zensieren oder Lügen verbreiten. Ein Großteil der Finanzierung dieser Forschung wird damit begründet, dass „Fehlinformationen“ heute eine der größten Bedrohungen für die internationale Sicherheit darstellen. Tatsächlich hat das Weltwirtschaftsforum im Januar 2024 , erklärt dass „Fehlinformationen und Desinformation die größten kurzfristigen globalen Risiken darstellen“. Auch die Präsidentin der Europäischen Kommission, Ursula von der Leyen , erklärt dass „Fehlinformationen und Desinformationen eine größere Bedrohung für die globale Geschäftswelt darstellen als Krieg und Klimawandel.“ Allein im Vereinigten Königreich hat die Regierung zahlreiche Forschungslabore an Universitäten, die sich mit Fehlinformationen beschäftigen, mit mehreren Hundert Millionen Pfund gefördert. Im März 2024 wurde allein das Turing Institute, das über mehrere spezialisierte Teams verfügt, die auf diesem und eng verwandten Gebieten arbeiten, ausgezeichnet 100 Millionen Pfund zusätzliche staatliche Mittel – seit seiner Gründung im Jahr 700 hatte es bereits rund 2015 Millionen Pfund erhalten. Ironischerweise werden im Nationalen Risikoregister 2023 der britischen Regierung folgende chronische Risiken aufgeführt:
„Künstliche Intelligenz (KI). Fortschritte bei KI-Systemen und ihren Fähigkeiten haben eine Reihe von Auswirkungen, die sowohl chronische als auch akute Risiken bergen. Beispielsweise könnte dies zu einer Zunahme schädlicher Fehl- und Desinformationen führen.“
Dennoch wird der Forschungsförderung im Bereich KI weiterhin Priorität eingeräumt, um diesem erhöhten Risiko „schädlicher Fehlinformationen und Desinformationen“ entgegenzuwirken!
Wie Mike Benz klar gemacht In seinen jüngsten Arbeiten und Interviews (untermauert durch detaillierte Beweise) wird deutlich, dass fast die gesamte Finanzierung der Universitäten und Forschungsinstitute weltweit, die diese Arbeit leisten, sowie der „Faktenprüfer“, die sie nutzen, vom US-Außenministerium, der NATO und dem britischen Außenministerium stammt. Diese waren nach dem Brexit-Votum und der Wahl Trumps 2016 entschlossen, den Aufstieg des „Populismus“ überall auf der Welt zu stoppen. Dieses Ziel hat den verrückten KI-Wettlauf um die Internetzensur vorangetrieben. Schauen Sie sich an: Dieses Video in dem Mike Benz uns durch ein Ereignis führt, das 2019 stattfand:
Gastgeber war der Atlantic Council, eine NATO-Tarnorganisation, um Journalisten von etablierten Organisationen weltweit darin zu schulen, wie sie „Desinformation entgegenwirken“ können. Man beachte, wie deutlich sie machen, dass „Desinformation“ für sie auch „Malinformation“ einschließt, die sie als Informationen definieren, die zwar wahr sind, aber ihrer eigenen Darstellung schaden könnten. Sie erklären, wie man solche „Malinformation“ unterbinden kann, insbesondere die Social-Media-Posts des damaligen Präsidenten Trump im Vorfeld der Wahlen 2020. Trotz Behauptungen, dass dies nicht geschehen sei (und tatsächlich wurden solche Behauptungen selbst als Desinformation eingestuft), haben die daran beteiligten Journalisten später prahlte sehr öffentlich dass sie es nicht nur getan haben, sondern dass es auch Trumps Wiederwahl im Jahr 2020 verhindert hat.

Update: Zwei hochrelevante Artikel von Kollegen:
- (Warum) Sind Fehlinformationen ein Problem? Gesellschaft für Psychologische Wissenschaften, 23 October 2022
- Donald Trump ist der Grund, warum ich Facebook nach mehr als 10 Jahren verlassen habe, Jessica Rose, 30. August 2024
Über den Autor
Norman Fenton ist emeritierter Professor für Risikoinformationsmanagement an der Queen Mary University of London. Er ist zudem Direktor von Agena, einem Unternehmen, das sich auf das Risikomanagement kritischer Systeme spezialisiert hat. Der ausgebildete Mathematiker konzentriert sich derzeit auf kritische Entscheidungen und insbesondere auf die Quantifizierung von Unsicherheit mithilfe kausaler, probabilistischer Modelle, die Daten und Wissen kombinieren (Bayessche Netze). Sein Ansatz lässt sich mit „Smart Data statt Big Data“ zusammenfassen.

Das Exposé braucht dringend Ihre Hilfe …
Können Sie bitte dazu beitragen, dass The Expose mit seinem ehrlichen, zuverlässigen, kraftvollen und wahrheitsgetreuen Journalismus weiterhin im Rampenlicht steht?
Ihre Regierung und Big-Tech-Organisationen
Versuchen Sie, The Expose zum Schweigen zu bringen und zu beenden.
Deshalb brauchen wir Ihre Hilfe, um sicherzustellen
Wir können Ihnen weiterhin die
Fakten, die der Mainstream nicht wahrhaben will.
Die Regierung finanziert uns nicht
Lügen und Propaganda zu veröffentlichen auf ihren
im Namen der Mainstream-Medien.
Stattdessen sind wir ausschließlich auf Ihre Unterstützung angewiesen.
Bitte unterstützen Sie uns bei unseren Bemühungen,
Sie ehrlichen, zuverlässigen, investigativen Journalismus
heute. Es ist sicher, schnell und einfach.
Bitte wählen Sie unten Ihre bevorzugte Methode aus, um Ihre Unterstützung zu zeigen.
Kategorien: Unsere neuesten Nachrichten, Weltnachrichten
Künstliche Idiotie ist bloß Kontrolle.
https://www.rumormillnews.com/cgi-bin/forum.cgi?read=245638
Ist Lord Scriven ein KI-Roboter im britischen Parlament?
Zu wissen, dass es nicht nur KI gibt, wir haben 5G, 6G steht vor der Tür, und ich habe mich heutzutage von jedem Computer entwöhnt und bin zu den guten alten Zeiten mit Bleistift, Büchern und Papier zurückgekehrt und war nie glücklicher, sogar mit Bargeld bezahlen. Yo ho zum Weihnachtsmann, und er ist ein Schwindler, den ich verehre
Hallo bluearea,
Zeigt, wie 5G darauf ausgelegt ist, bei C19-Empfängern Blutgerinnsel zu verursachen.
https://www.rumormillnews.com/cgi-bin/forum.cgi?read=245596
Ich habe gehört, dass KI so programmiert wird, dass sie Informationen zensiert (sinniert). Ich musste zynisch lachen. Es ist so – die ganze verrückte Idee hinter der Entwicklung von KI besteht darin, so etwas wie einen Menschen zu erschaffen, der wirklich unparteiisch wäre – aber jetzt wurde auch das korrumpiert – von Kriminellen, die ihr kriminelles Verhalten schützen und verbergen. Die gute Nachricht ist, dass ein junger Inder in Kalifornien eine KI – perplexity.ai – entwickelt hat, deren Algorithmus menschliche Neugier nachahmt und so aus jeder Frage weiter extrapoliert, ohne jemals zu entscheiden, dass sie „die Wahrheit“ kennt. Ich habe sie gerade mit der Geschichte um Hunter Bidens Laptop getestet und sie hat gerade alle bekannten Fakten zu dem Fall berichtet, einschließlich des bevorstehenden Prozesses, bei dem die Beweise vom Laptop verwendet werden.
Ich habe gehört, dass Perplexity Leute unter der Überschrift „DEI“ beschäftigt, also habe ich den Roboter gefragt, warum. Er sagte: „Damit die Wahrscheinlichkeit größer ist, umfassende und ausgewogene Informationen zu erhalten“ (so ähnlich). Ich habe ihn darauf hingewiesen, dass DEI-Leute allein dadurch, dass sie sich dieser Kategorie zuordnen, ihre eigenen Vorurteile und blinden Flecken haben. Wie können also ausgewogene Informationen gewährleistet werden? Er hat sehr nachdenklich und überlegt geantwortet – im Grunde sagte er, ich hätte einen guten Punkt angesprochen, aber er wüsste die Antwort nicht – „aber hier sind eine ganze Menge relevanter Informationen, die Sie vielleicht berücksichtigen möchten“ …
Bevor perplexity.ai also abgeschafft wird, sollten Sie es vielleicht ausprobieren. Ich habe damit nichts zu tun, falls Sie sich das fragen. Ich bin ein halbpensionierter Künstler und lebe in einem Bus irgendwo in den Antipoden 🙂
https://www.rumormillnews.com/cgi-bin/forum.cgi?read=245671