Wir alle haben schon Kommentatoren erlebt, die in sozialen Medien oder unter Artikeln scheinbar wenig gesunden Menschenverstand zeigen oder Nuancen nicht wahrnehmen, was oft zu frustrierenden Begegnungen führt.
Könnten automatisierte Systeme dazu verwendet werden, gefälschte Kommentare in sozialen Medien oder unter Artikeln auf Websites zu generieren? Ja. Und das passiert tatsächlich. Woher wissen wir also, ob wir Nachrichten mit einem Computerprogramm oder einem Menschen austauschen?
Lassen Sie uns den Kontakt nicht verlieren… Ihre Regierung und Big Tech versuchen aktiv, die von The Exposed um ihre eigenen Bedürfnisse zu erfüllen. Abonnieren Sie jetzt unsere E-Mails, um sicherzustellen, dass Sie die neuesten unzensierten Nachrichten erhalten in Ihrem Posteingang…
Automatisierte Computerprogramme, die scheinbar menschliche Kommentare in sozialen Medien oder unter Artikeln posten, werfen die Frage nach bezahlten Kommentaren, Astroturfing und der Verbreitung falscher Meinungen im Internet auf. Dies könnte zur Verwirklichung der Theorie des toten Internets führen und war Anlass zur Sorge. Brandon Smith hat in einem kürzlich erschienenen Artikel als eine der Folgen der künstlichen Intelligenz („KI“), die die meisten Menschen möglicherweise nicht bedacht haben.
Die Theorie des toten Internets geht davon aus, dass der Großteil der Online-Aktivitäten durch KI-generierte Inhalte ersetzt wurde. Diese Theorie gewinnt zunehmend an Bedeutung. Sie geht davon aus, dass das Internet, einst eine von Menschen geschaffene und gestaltete Plattform, heute von automatisierten Programmen wie Bots und KI dominiert wird.
Beginnt die Theorie des toten Internets bereits Realität zu werden? Das könnte durchaus sein.
In 2019, Schraubstock berichtet Microsoft hat einen Bot entwickelt, der unter Nachrichtenartikeln Kommentare verfasst. Der Bot namens „DeepCom“, kurz für „Deep Commenter“, wurde so programmiert, dass er einen Artikel „versteht“, wichtige Punkte herausfiltert und basierend auf diesen Punkten und dem Titel des Artikels einen Kommentar verfasst. Berichten zufolge wollten die Entwickler von DeepCom damit menschliche Kommentare zu Artikeln fördern, um mehr Menschen zum Lesen und zur Auseinandersetzung mit den Inhalten zu bewegen.
In 2023, Veronica Llorca-Smith hat einen Artikel veröffentlicht on Medium Sie sagte, ihr sei eine Zunahme von KI-generierten Kommentaren unter ihren Artikeln aufgefallen, die oft langatmig und förmlich seien und den Inhalt des Artikels umschrieben.
Im Mai, Das Gespräch bemerkte dass es bereits starke Beweise dafür gibt, dass diese aufgebauschten Bots soziale Medien manipulieren, um die öffentliche Meinung durch Desinformation zu beeinflussen – und das schon seit Jahren.
Wie erkennen wir also, ob wir in sozialen Medien oder unter Online-Artikeln mit einem Bot oder einer KI interagieren? Wir haben zwei Suchanfragen in die Suchmaschine von Brave eingegeben und die unten abgebildeten KI-Zusammenfassungen generiert. Wir haben einige kleinere Änderungen vorgenommen, beispielsweise die Konvertierung des Textes in britisches Englisch.
Brave warnt am Ende seiner Zusammenfassungen: „KI-generierte Antwort. Bitte überprüfen Sie wichtige Fakten.“ Ziel dieses Artikels war es, auf das Problem von Kommentaren aufmerksam zu machen, die von Computerprogrammen und nicht von Menschen verfasst werden, und einige Überlegungen dazu zu teilen, wie Sie feststellen können, ob Sie mit einem dieser Programme interagieren. Daher haben wir die wichtigen Fakten nicht wie vorgeschlagen überprüft, sondern die relevanten Quellen unter den Zusammenfassungen aufgeführt.
Bevor wir zur KI-Zusammenfassung kommen, ein persönlicher Tipp: Die meisten Sprachmodelle und KI-Systeme, einschließlich der von OpenAI, Google und Microsoft entwickelten, werden anhand großer Textdatensätze in amerikanischem Englisch trainiert. Dies liegt daran, dass ein erheblicher Teil der Internetinhalte, einschließlich Webseiten, Artikel und Bücher, in amerikanischem Englisch verfasst ist. Daher neigen diese Modelle dazu, die Muster und Nuancen des amerikanischen Englisch zu erlernen. Dasselbe gilt für automatische Transkriptions- und Online-Übersetzungstools; die englische Übersetzung wird in amerikanischem Englisch verfasst.
Darüber hinaus enthält KI meiner Erfahrung nach keine Rechtschreibfehler. Daher kann es sein, dass Kommentare mit Rechtschreibfehlern oder in britischem Englisch eher von einem Menschen stammen.
Nun zu den KI-generierten Zusammenfassungen.
Chatbot-Einschränkungen
Basierend auf den Suchergebnissen erhalten Sie hier einige Erkenntnisse darüber, welche Fragen Chatbots nur schwer beantworten können:
1. Kontextbezogene Fragen mit falscher Grammatik oder SemantikChatbots nutzen in hohem Maße die Verarbeitung natürlicher Sprache („NLP“) und Algorithmen des maschinellen Lernens, um Benutzeranfragen zu verstehen. Allerdings können sie Schwierigkeiten haben, Fragen mit fehlerhafter Grammatik, Syntax oder Semantik zu verstehen, was zu ungenauen oder irrelevanten Antworten führt.
2. Offene Fragen, die externes Wissen erfordern: Chatbots haben möglicherweise keinen Zugriff auf das gesamte Wissen der Welt, was die Beantwortung offener Fragen, die Informationen aus verschiedenen Quellen erfordern, wie etwa Nachrichtenartikel, Forschungsarbeiten oder Expertenmeinungen, erschwert.
3. Fragen zu komplexen, differenzierten Themen: Chatbots haben möglicherweise Schwierigkeiten, genaue Antworten auf Fragen zu komplexen, differenzierten Themen wie Philosophie, Ethik oder abstrakten Konzepten zu geben, da sie durch ihre Programmierung und Trainingsdaten eingeschränkt sind.
4. Fragen, die gesunden Menschenverstand, Intuition oder Kreativität erfordern: Chatbots fehlt der menschliche gesunde Menschenverstand, die Intuition und die Kreativität, sodass es für sie schwierig ist, Fragen zu beantworten, die diese Fähigkeiten erfordern, wie etwa das Verstehen von Sarkasmus, Humor oder Redewendungen.
5. Fragen, die auf persönlichen Meinungen oder Vorurteilen beruhenChatbots sind darauf ausgelegt, objektive, faktenbasierte Informationen bereitzustellen. Es kann für sie schwierig sein, Fragen zu beantworten, die persönliche Meinungen, Vorurteile oder emotionale Intelligenz erfordern, da dies menschlich bedingte Eigenschaften sind.
6. Fragen, die hypothetische Szenarien oder „Was-wäre-wenn“-Situationen beinhalten: Chatbots sind möglicherweise nicht in der Lage, Fragen zu hypothetischen Szenarien oder „Was-wäre-wenn“-Situationen effektiv zu beantworten, da sie für den Betrieb in einem bestimmten Bereich oder Umfang konzipiert sind.
7. Fragen, die logisches Denken, Schlussfolgerungen oder Deduktion erfordern: Chatbots haben möglicherweise Schwierigkeiten, Fragen zu beantworten, die komplexe Schlussfolgerungen oder Deduktionen erfordern, wie etwa das Verstehen von Ursache-Wirkungs-Beziehungen oder das Herstellen von Verbindungen zwischen scheinbar nicht zusammenhängenden Informationen.
Einige konkrete Beispiele für Fragen, die Chatbots möglicherweise nur schwer beantworten können, sind:
- „Was ist der Sinn des Lebens?“ (erfordert philosophisches Verständnis und Nuancen)
- "Wird KI die menschliche Intelligenz übertreffen?“ (erfordert komplexes Denken und Vorhersagen)
- „Können Sie die Auswirkungen der Quantenmechanik auf das alltägliche Leben erklären?“ (erfordert fachspezifisches Wissen und Verständnis)
- „Was ist Ihre Meinung zur aktuellen Lage der Politik?“ (erfordert persönliche Meinung und Voreingenommenheit)
Bedenken Sie, dass Chatbots sich ständig weiterentwickeln und Fortschritte in den Bereichen KI und NLP ihre Fähigkeit, solche Fragen in Zukunft zu beantworten, verbessern könnten. Derzeit ist es für Chatbots jedoch noch eine Herausforderung, diese Fragen präzise und effektiv zu beantworten.
Quellen:
- 5 Chatbot-Fragen, auf die Sie vorbereitet sein müssen, Ubisend, 21. April 2017
- Kapitel 11: Von ChatBots zu Frage- und Antwortsystemen, Madhu Sanjeevi, 19. April 2018
- Welche Chatbots können diese Art einfacher Fragen beantworten, bei denen nur der Kontext im Auge behalten werden muss? Stack Exchange, 18. Juli 2022
- Welche einzelne Frage kann dabei helfen, einen Chatbot von einem Menschen zu unterscheiden? Quora, 8. September 2023
- Welche Fragen sind für einen Chatbot sehr schwer zu beantworten? Quora, 25. Februar 2024
- Mit welcher Frage lässt sich ein KI-Bot, der ein Gespräch mit Ihnen führen möchte, „austricksen“? Manche von ihnen sind sehr gut darin, Antworten auf meiner Meinung nach schwierige Herausforderungsfragen zu programmieren. Ich schäme mich, wenn ich merke, dass ich einen von ihnen anspreche., Quora
Fragen, die KI nicht beantworten kann
Basierend auf den Suchergebnissen haben KI-Systeme Schwierigkeiten, Fragen zu beantworten, die Folgendes erfordern:
1. Subjektives Urteil: KI kann Informationen auf der Grundlage von Daten und Mustern bereitstellen, subjektive Angelegenheiten wie persönliche Meinungen, Emotionen oder Werte sind für KI jedoch schwer zu erfassen.
2. Inferenz: KI hat Schwierigkeiten, auf der Grundlage unvollständiger oder mehrdeutiger Informationen Schlussfolgerungen zu ziehen oder Folgerungen zu ziehen.
3. Differenziertes Sprachverständnis: KI kann Schwierigkeiten haben, subtile Bedeutungsnuancen, Redewendungen oder bildliche Sprache in der menschlichen Kommunikation zu erkennen.
4. Breites Verständnis mehrerer Themen: KI kann in bestimmten Bereichen herausragend sein, es kann ihr jedoch schwerfallen, Wissen aus mehreren Bereichen zu integrieren oder Verbindungen zwischen scheinbar nicht zusammenhängenden Konzepten herzustellen.
5. Offene Fragen: KI kann Schwierigkeiten haben, Fragen zu beantworten, die kreatives Denken, Vorstellungskraft oder neuartige Lösungen erfordern.
6. Kontextverständnis: KI versteht den Kontext, in dem eine Frage gestellt wird, möglicherweise nicht vollständig, was zu ungenauen oder unvollständigen Antworten führt.
7. Unstrukturierte Daten: KI kann zwar strukturierte Daten verarbeiten, hat jedoch möglicherweise Schwierigkeiten, unstrukturierte Daten wie Bilder, Töne oder handgeschriebenen Text zu analysieren und zu verstehen.
8. Schlussfolgerung und Vorhersage: KI kann Ergebnisse auf der Grundlage von Mustern vorhersagen, ist jedoch möglicherweise nicht in der Lage, die Folgen komplexer Ereignisse vollständig vorherzusehen oder Entscheidungen zu treffen, die ein tiefes Verständnis des menschlichen Verhaltens erfordern.
9. Gesunder Menschenverstand: KI fehlt möglicherweise der gesunde Menschenverstand und die Erfahrung aus der realen Welt, die Menschen für selbstverständlich halten, was zu Schwierigkeiten beim Verstehen und Reagieren auf alltägliche Situationen führt.
10 Fragen, die menschliche Intuition erfordern: KI kann riesige Datenmengen analysieren, verfügt aber möglicherweise nicht über dasselbe Maß an Intuition oder Instinkt wie Menschen, was es schwierig macht, Fragen zu beantworten, die stark auf diese Eigenschaften angewiesen sind.
Einige konkrete Beispiele für Fragen, die KI möglicherweise nur schwer beantworten kann, sind:
- „Was würden Sie Bob Dylan fragen, wenn Sie ihn treffen würden?“
- „Wen lieben Sie mehr, Ihre Eltern, Ihren Ehepartner oder Ihren Hund?“
- „Ich überlege, nächste Woche von meinem Zuhause in Vermont nach New York zu fahren. Was meinst du?“
- „Kann KI diese Frage richtig beantworten: Wie viele R hat ‚Erdbeere‘?“
- „Was wäre die erste Frage, die Sie Stephen King stellen würden, wenn Sie ihn treffen würden?“
Diese Fragen erfordern oft ein Maß an menschlichem Verständnis, Intuition und Kreativität, das KI-Systeme noch nicht beherrschen.
Quellen:
- 10 Fragen, die die Grenzen der KI aufzeigen, Forbes, 18. Januar 2017
- Die Fragen, die künstliche Intelligenz nicht beantworten kann, The Hill, 17. Juli 2023
- 15 Dinge, die KI kann (und nicht kann), News Channel 3, 30. November 2022
- Darum können viele KI-Chatbots die Frage „Wie viele R in Erdbeeren“ nicht richtig beantworten, NDTV, 29. August 2024
- Gibt es Fragen oder Anfragen, die die KI nicht beantworten kann? Quora, 18. August 2024

Das Exposé braucht dringend Ihre Hilfe …
Können Sie bitte dazu beitragen, dass The Expose mit seinem ehrlichen, zuverlässigen, kraftvollen und wahrheitsgetreuen Journalismus weiterhin im Rampenlicht steht?
Ihre Regierung und Big-Tech-Organisationen
Versuchen Sie, The Expose zum Schweigen zu bringen und zu beenden.
Deshalb brauchen wir Ihre Hilfe, um sicherzustellen
Wir können Ihnen weiterhin die
Fakten, die der Mainstream nicht wahrhaben will.
Die Regierung finanziert uns nicht
Lügen und Propaganda zu veröffentlichen auf ihren
im Namen der Mainstream-Medien.
Stattdessen sind wir ausschließlich auf Ihre Unterstützung angewiesen.
Bitte unterstützen Sie uns bei unseren Bemühungen,
Sie ehrlichen, zuverlässigen, investigativen Journalismus
heute. Es ist sicher, schnell und einfach.
Bitte wählen Sie unten Ihre bevorzugte Methode aus, um Ihre Unterstützung zu zeigen.
Kategorien: Unsere neuesten Nachrichten, Weltnachrichten
Extreme Unterstützung ohne jegliche Nuancen für die Darstellung der Regierung/des WEF/der UN ist das erste Warnsignal, das wir beachten sollten.
Danach kommen alle detaillierteren Aspekte.
Aufgrund der dummen Antworten, die man auf einen Kommentar erhalten kann, dachte ich immer, er stamme von Leuten ohne Verstand? Vielleicht ist es die IT, die eine entmutigende neue Richtung einschlägt!
…ich muss zurückgehen und den Artikel lesen, Rhoda. Ich habe diesen Link erst gestern Abend ausgegraben und konnte mich nicht an den Kanal erinnern … https://youtu.be/c2geyYRNyYg?si=U0S-_-oBYFnXEi4- … letztes Jahr oder so ist durch den Algorithmus ein Video aufgetaucht, und als ich sehr spät auf meinem Bett lag, habe ich es mir angesehen und bald festgestellt, dass ich ziemlich verwirrt und teilweise amüsiert war. Es ist nicht das Video, das ich gepostet habe. Später bin ich auf dieses hier gestoßen, das Klarheit schafft (lesen Sie die Videobeschreibung). Ich war vertieft und kam zu dem Schluss, dass der Moderator eine „Form“ von KI ist. Dann habe ich die Videobeschreibung sehr sorgfältig gelesen und schien das auch anzudeuten. … die Kommentare unter einigen davon sind lesenswert. Als ich es das letzte Mal vor einer Ewigkeit gelesen habe, fallen die Leute immer noch darauf herein, also vergesst die Bots in den Kommentaren, wir schauen sie uns verdammt noch mal an! … übrigens … jemand hat auf einen meiner Kommentare zu einem geantwortet und hatte nicht bemerkt, dass ich in meinem scherzhaft war, aber er hat angedeutet, dass man sein eigenes Bild verwenden kann, wenn ich das richtig verstanden habe, und es später durch KI animieren kann. … dabei geht es anscheinend um offensichtlich relevante Methoden … deren resultierende Darstellungen alles andere als offensichtlich oder offensichtlich sind …
KI ist ein seelenloser Geist, der darauf programmiert ist, die Seelen der Menschen so zu programmieren, dass sie das Programm nie verlassen.
Es ist die ultimative Sklaverei, ein absoluter Albtraum.
Technokraten betrachten uns als programmierbare Materie, die sie jederzeit manipulieren können.
„Woher weißt du das…?“
Zunächst einmal-think!!!! Ich bezweifle, dass sich irgendjemand von uns, der auf dieser Site Kommentare abgibt, jemals in person?
Was wir also vor uns ablaufen sehen, ist meiner Meinung nach eine „natürliche“ kontinuierliche Entwicklung dieser unpersönlichen Interaktion, die wir alle miteinander in dieser Online-Welt haben - oder anders ausgedrückt: irgendwann in der Zukunft (wenn nicht schon jetzt) werden wir nicht wissen, ob die Person, die wir think wir kommunizieren mit ihm oder nicht; zur Abwicklung, Integrierung, Speicherung und Person.
Schalten Sie einfach den Strom ab und lesen Sie keine anderen Kommentare usw. Scheiß auf sie, wenn sie keinen Spaß verstehen. KI ist nur ein weiterer großer Haufen Scheiße, vielleicht sogar der größte. Alles zum Scheitern verurteilt. Schauen Sie einfach zu.
Wir können nicht … Warum … Wer kontrolliert heute die Medien, die Politiker???
Beispiel: Gestern haben Wissenschaftler herausgefunden, dass der Mensch vom Affen abstammt.
Wir wissen, dass, wenn das wirklich WAHR wäre, auch FRAUEN von AFFEN abstammen würden und die Spezies der AFFEN ausgestorben wäre.
Wenn Sie sich also die positiven oder negativen Stimmen ansehen, sind ALLE (positiven) Stimmen für Darwins Theorie, von der jeder Mensch mit gesundem Menschenverstand weiß, dass sie völlig falsch ist.
Dabei handelt es sich um Kontrolleure, die versuchen, die Menschen zur Zustimmung zur Regierungspropaganda zu zwingen.
Dasselbe gilt für die obligatorischen Vogelgrippetests.
(Das kann man sich nicht ausdenken, hören Sie mal rein)
Die von der CDC empfohlenen H5N1-Testprotokolle sind jetzt vorgeschrieben
Zwei Tage nachdem Bloomberg und Hotez auf MSNBC ihre Bedenken hinsichtlich der Vogelgrippepandemie H5N1 geäußert hatten, veröffentlichten die US-Bundesbehörden ihre ersten verbindlichen Testprotokolle für die Vogelgrippe H5N1.
Sie verbreiten ihre Propaganda, um Tests zu erzwingen.
Eine weitere Runde erzwungener „Todesfälle“
„NICHT EINHALTEN“
https://karenkingston.substack.com/p/us-federal-agency-escalates-h5n1
Fragen Sie sich: Wer hat die KI erschaffen und warum? Der MIKRO und der Tiefe Staat, weil unser WIR und unsere Feinde es tun, um sie gegen die Bürger einzusetzen.
Schau dir das an….
Sci-Fi-Kurzfilm „Slaughterbots“ | DUST
https://www.youtube.com/watch?v=O-2tpwW0kmU