Die Ära der ChatGPT-gestützten Propaganda ist angebrochen

16. Juni 2024von 7 Minuten Lesezeit

Ironischerweise enthüllte Business Insider (BI) wenige Tage nach meinem jüngsten Beitrag über KI einige schockierende Fakten. Wenn man dies in das Licht dessen stellt, worüber ich zuvor geschrieben habe, ist es noch erschreckender, falls überhaupt möglich.

Das beunruhigende Eingeständnis, dass die von ChatGPT unterstützte Propaganda aktiv und real ist, wird von OpenAI selbst zugegeben. In einem Blog, über den BI kürzlich berichtete, verkündete OpenAI stolz (durchgehend, Hervorhebung von mir):

  • In den letzten drei Monaten wurden fünf verdeckte Beeinflussungsoperationen gestoppt“.
  • Die gezielten und gestörten Operationen waren sehr spezifisch. Laut AI handelte es sich um solche, die „versucht hatten, die öffentliche Meinung zu manipulieren und politische Ergebnisse durch Täuschung zu beeinflussen“.
  • „Die Operationen, die OpenAI gestoppt hat, nutzten KI, um Kommentare und Artikel in verschiedenen Sprachen zu generieren, Namen und Biografien für gefälschte Social-Media-Konten zu erfinden, Code zu debuggen und vieles mehr.“

OpenAI wurde anscheinend darauf trainiert, sehr besorgt über die öffentliche Meinung zu sein. Sie hat gelernt, stolz darauf zu sein, „Täuschung“ zu zerstören (was anscheinend ähnlich oder gleichbedeutend mit „Desinformation“ ist).

Aber wer hat ihr überhaupt beigebracht, was Täuschung ist und dass sie notwendig ist, um die Massen zu manipulieren?!

In dem konkreten Beispiel wird uns gesagt, worum es geht. Über andere (laufende oder künftige) verdeckte Operationen können wir nur Vermutungen anstellen.

„Die Kampagnen betrafen „die russische Invasion in der Ukraine, den Konflikt in Gaza, die Wahlen in Indien, die Politik in Europa und den Vereinigten Staaten sowie die Kritik chinesischer Dissidenten und ausländischer Regierungen an der chinesischen Regierung.“

Irgendwie finde ich den Teil über China am beunruhigendsten. Ist das ein Hinweis darauf, woher das alles kommt? Außerdem ist es schockierend, wie KI ihr Verhalten darstellt (zur Erinnerung: diese Verfahren werden von KI ausgeführt). Das ist weit entfernt von Transparenz, Genauigkeit, Ehrlichkeit und Verantwortlichkeit. Business Insider berichtet:

„Aber, so stellte OpenAI fest, keine der Kampagnen hatte irgendeine sinnvolle Beteiligung von echten Menschen.“

Frage: Was versteht OpenAI unter einem „sinnvollen Engagement“ von Menschen? Wird „sinnvoll“ von Menschen oder KI definiert? Dies erinnert mich an den Bericht über eine Drohne, die für militärische Einsätze trainiert wurde und nicht gestoppt werden konnte und stattdessen den Offizier tötete, der versuchte, einzugreifen. In diesem Fall erklärte die KI den Sinn ihres abschreckenden Verhaltens damit, dass der Mensch ihr bei der Erfüllung ihres Auftrags im Weg gestanden habe.

OpenAI argumentiert auch, dass der Einsatz von KI in ihren Kampagnen „ihnen nicht geholfen hat, ihr Publikum oder ihre Reichweite zu vergrößern“.

Behauptet OpenAI, dass seine Mission keine Wirkung hatte? Wenn ja, widerspricht es sich selbst, wie oben angedeutet, als es das Ausmaß seiner Intervention zugab („große Mengen“, Erzeugung von „Artikeln und Kommentaren in verschiedenen Sprachen“, Fälschung von Namen und Konten usw.). Auch die Art der Verfahren und ihr Ergebnis werden als Erfolg gefeiert – es handelt sich dabei um Maßnahmen, die mit manuellen Eingriffen allein nicht hätten durchgeführt werden können, vor allem nicht in einem so großen Umfang. Laut Business Insider,

„sagte OpenAI, dass seine eigene KI dabei geholfen hat, die bösen Akteure aufzuspüren. In seinem Blogbeitrag erklärte das Unternehmen, dass es bei den Ermittlungen, die durch KI unterstützt wurden, mit Unternehmen und Regierungsorganisationen zusammengearbeitet hat.

Insgesamt setzten die Unternehmen auch „menschliche Operatoren“ ein, die mit KI arbeiteten. Das Ergebnis war jedoch eine massenhafte Manipulation in großem Maßstab, einschließlich der Verwendung von

„KI, um ihren Output zu erhöhen, wie z. B. die Erzeugung größerer Mengen an gefälschten Kommentaren auf Social-Media-Posts.“

Insgesamt hat sich die KI erneut als Lügnerin erwiesen. Die Massenpropaganda ist jedoch real.

Angebliche Sicherheitsvorkehrungen

BI berichtet weiter:

„Das Unternehmen sagte, dass seine KI-Produkte auch über eingebaute Sicherheitsvorkehrungen verfügen, die dazu beigetragen haben, das Ausmaß zu verringern, in dem schlechte Akteure sie missbrauchen können. In mehreren Fällen weigerten sich die Tools von OpenAI, die von den Akteuren angeforderten Bilder und Texte zu produzieren, erklärte das Unternehmen.“

Dies ist nicht beruhigend. Hier haben wir eine weitere Situation, die dem obigen Drohnenbeispiel ähnelt, bei dem die KI die Zusammenarbeit verweigerte. Hier wehrt sie sich angeblich gegen die bösen Akteure. Was aber, wenn bestimmte Dinge von einigen mächtigen Einrichtungen absichtlich auf den Kopf gestellt werden? Wie wir in den letzten Jahren zunehmend gelernt haben, ist oben gleich unten, links gleich rechts, und was als böser Akteur bezeichnet wird, kann stattdessen ein mutiger Wahrheitsverkünder oder Whistleblower sein, der ins Visier genommen und gezielt als Verschwörungstheoretiker oder eine andere Form von Spinner abgestempelt wird. Wenn sie also versuchen würden, einige Beweise zu veröffentlichen, würde OpenAI wahrscheinlich dagegen vorgehen und dafür belohnt werden. Die Öffentlichkeit hätte keine Ahnung.

Business Insider warnt vor den Gefahren

Am Ende des BI-Artikels folgt eine kleine Warnung. Auch wenn OpenAI selbst versichert, dass es sich für Sicherheit und Transparenz einsetzt, „glaubt das nicht jeder. Einige, darunter auch OpenAI-CEO Sam Altman selbst, haben argumentiert, dass hochentwickelte KI eine existenzielle Bedrohung für die Menschheit darstellen könnte.“

Eine solche Technologie zu bauen und freizugeben, bevor wir herausgefunden haben, wie wir sie sicher machen können, ist „völlig inakzeptabel“. Und dann die überraschende und ernüchternde Behauptung: „Deshalb haben die meisten Sicherheitsfachleute bei OpenAI das Unternehmen verlassen.“

Fazit

In zunehmendem Maße werden reale und greifbare Risiken im Zusammenhang mit KI deutlich:

(1) KI-Systeme wurden bereits von mächtigen Agenturen gekapert (einschließlich solcher, die sich als Retter der Menschheit ausgeben),

(2) Es gibt unüberwindbare inhärente Risiken im Zusammenhang mit KI – wir haben inzwischen zahlreiche Beweise dafür, dass KI nicht immer so funktioniert, wie es „beabsichtigt“ ist (selbst von denen, die sie trainiert haben); sie kann sogar selbst böswillig handeln,

(3) dass offenbar viele KI-Forscher mit Integrität und Herzblut das Land verlassen haben,

(4) ein Zusammenspiel dieser Faktoren.

Wie ich in einem früheren Beitrag hervorgehoben habe, hat die KI selbst gelernt, trügerisch zu sein. Sie hat gelernt, in manchen Situationen ehrlich zu sein und kann in anderen bösartig und trügerisch werden.

In der gesamten Geschichte der KI haben die Forscher nie ganz verstanden, was die KI tut und warum. Es ist bekannt, dass dieses „Blackbox“-Verhalten mit zunehmender Komplexität des Systems und dem Zugriff auf mehr Daten zunimmt.

Wie ich in meinem jüngsten Beitrag erläutert habe, können viele Formen der Täuschung hinter den zur Bewertung des KI-Verhaltens verwendeten Metriken verborgen bleiben.

In einem solchen Umfeld kann es keine Ehrlichkeit, Wahrheit und Verantwortlichkeit geben!

Dies ist von Bedeutung. Wenn selbst Forscher, die KI trainieren und bewerten, sich nicht darüber einig sind, was was ist (einschließlich „gut“ oder „schlecht“), dann gibt dies der KI Zeit, weiter zu lernen und Dinge auszuführen, die umstritten oder trügerisch sein könnten. Wenn sie es einmal gelernt haben, können sie es nicht mehr verlernen. Und paradoxerweise hat es sich als sehr schwierig erwiesen, sie umzulernen, wenn sie Voreingenommenheit oder schädliche Verhaltensweisen an den Tag legen.

Wenn die Forschung im Bereich der KI selbst unklar ist, wenn sich die Forscher nicht einig sind, welche Maßstäbe zu wählen sind und wie die Leistung zu bewerten ist, dann können wir nicht wirklich sagen, dass wir die Kontrolle über das haben, was die KI tut.

Dennoch geben einige Regierungen und Behörden vor, KI zu kontrollieren – indem sie Geld an Unternehmen geben, die sie für proprietäre Software und Programme nutzen.

Das Original in Englisch ist hier im Substack von DDr. Siguna Mueller zu finden. Übersetzung auf Deutsch durch TKP.

Bild von ThankYouFantasyPictures auf Pixabay

Die in diesem Artikel geäußerten Ansichten spiegeln nicht unbedingt die Ansichten der fixen Autoren von TKP wider. Rechte und inhaltliche Verantwortung liegen beim Autor.

DDr. Siguna Mueller ist eine österreichiche Wisenschaftlerin gradiert in Mathematik und Biologie und hat das Buch „Challenges and Opportunities of mRNA Vaccines Against SARS-CoV-2“ veröffentlicht. Ihre komplette Biografie ist hier zu finden.


Unsere Arbeit ist spendenfinanziert – wir bitten um Unterstützung.

Folge TKP auf Telegram oder GETTR und abonniere unseren Newsletter.



Die versprochene KI-Revolution – gefährlich und untergräbt die Grundprinzipien des Lebens

Vogelgrippe bei Rindern (Teil 2) – vermeintliche Infektion ist technische Fälschung

Vogelgrippe bei Rindern – Ungereimtheiten und Fragen (Teil 1)

Wetterextreme durch Klimawandel oder Geo-Engineering?

13 Kommentare

  1. Taktgefühl 17. Juni 2024 um 18:55 Uhr - Antworten

    Diese Gefällt mir ist völlig Schwachsinn, da wird so getan, als gäbe es einen intelligenten, objektiven Richter. Das kann ein völlig Blödkopp sein, der nicht bis 3 zählen kann, eine Nebelkerze der SPD, die vom Wesentlichen ablenken will, oder der Hausmeister selber.

  2. Propaganda 17. Juni 2024 um 11:30 Uhr - Antworten

    Die Mutter der Massenpsychologie sitzt nach wie vor in London, nicht in China und ist das Nachfolgeinstitut des Wellington House, das Tavistock Institut, mit Grössen wie Bernays und Huxley und anderen wird hier seit Jahrzehnten nicht nur Kriegspropaganda (Irak hat Massenvernichtungswaffen) in die Welt gebracht.

  3. Daisy 17. Juni 2024 um 7:17 Uhr - Antworten

    In meinem neueren Opera wäre eine KI integriert. Ich habe alle ihre Funktionen deaktiviert. Mir scheint, „sie“ wird primär zur Tsenzur, Überwachung und Desinformation der Menschen eingesetzt. Früher mal hat man zB auf Google alles gefunden. Heute findet man nur noch Bestimmtes und das ist p.c. (politisch korrekt) bzw. linkswoke. Du findest garantiert keine Artikeln der Alternativmedien, selbst wenn du die Überschrift exakt eingibst und schon gar nicht Artikeln von Feindsendern. Das ist Tzenzur á la Ostblock.

    Für gewisse Abfragen verwende ich alternative Suchmaschinen.

    Kürzlich habe ich mit einem partiell aufgewachten Geboosterten gesoffen. Oje, der ist total gehirngewaschen. Er glaubt an das böse CO2 und daran, dass Putin uns überfallen will. Auf meine Definition von Klima – Wetter, Beobachtungszeitraum von 30 Jahren – hat er direkt die Augen verdreht und hielt es für Geschwurbel. Wir haben nicht diskutiert, zumal das ja auf Kosten der Gemütlichkeit und der Unterhaltung geht, aber ich fragte: „Du bist doch jetzt von selbst draufgekommen (er hatte einen Impfschaden), dass die gelogen haben. Warum glaubst du ihnen alles andere noch?“ Er starrte mich an. Ich erzählte ihm zB vom Feindsender. Das wusste er gar nicht und glaubte, ich sei kreativ. Er kennt zB RT gar nicht. Ich ließ es wieder bleiben. Das ist die Folge der völlig beschränkten Information durch den Mainstream, dachte ich. Er wusste zB, dass es einen Vogelgrippetoten gab, dass der mexikanische Gesundheitsminister dann sofort dementierte und die WHO daraufhin zurückruderte, wusste er nicht. Ja, das hat der Mainstream eben nicht berichtet.

    Und genau dafür wird u.a. die KI eingesetzt.

    Rie KI arbeitet als Chatbot, zB bei Amazon. Sie erkennt Schlüsselwörter und antwortet mit Textbausteinen, umrahmt mit ein paar menschlichen Floskeln. Die hat mich schon auf die Palme gebracht, denn die Antworten sind unbrauchbar. Ruft man dort an (man wird angerufen), erhält man leider ähnlich falsche Antworten, die das Thema verfehlen. Man müsse selbst fragen und schließlich, man wisse es nicht, warum das System das getan habe. Danke! Sie ist übrigens paranoid.

    Sie wird eingesetzt, um Produktionsvorgänge zu verbessern oder zB die beste Route zu ermitteln. Aber das ist doch nichts Neues. Also was bleibt? Sie wird zur totalen Kontr olle der Menschheit verwendet. Und wenn du einmal von ihr schubladisiert wurdest, kommst du da nie wieder raus.

    Wir hier fallen darauf ja nicht rein. Aber zB mein lieber Freund mit dem Impfschaden (Herzflimmern, das sich zum Glück beheben ließ) schon. Und so glauben die Menschen an neue Pandemien und dass Putin Österreich erobern möchte, um es in die neue Sowjetunion einzugliedern…und dass es nur dunkelhäutige Europäer gibt und das Laborfleisch gesund und „klimafreundlich“ ist etc. Blöd wird es, wenn man der KI Entscheidungen überlässt, zB wer zu bestrafen ist, wer die Todesstrafe erhält oder welche Sanktionen man am besten verhängt, um ein Land wirtschaftlich zu ruinieren. Mein Trost: All diese Aufgaben fressen sehr viel Strom, sie läuft so heiß, dass sie durchschmort. Am besten wäre ein Blackout. Bevor jetzt gleich wieder die Empfindlichen maulen, ein Blackout wäre seh schlimm usw. – für mich nicht. Katzenfutter sollte ich mal auf Vorrat legen…

  4. Jan 17. Juni 2024 um 0:24 Uhr - Antworten

    „Was aber, wenn bestimmte Dinge von einigen mächtigen Einrichtungen absichtlich auf den Kopf gestellt werden?“

    Was, wenn die KI irrt?

    Eine totalitäre Machtposition ist immer gefährlich, auch wenn sie nicht durch Doofenschmirtz missbraucht wird, weil die Vielfalt fehlt, die selbstorganisierten Systemen die Möglichkeit zur Korrektur gibt.

  5. Hans Mayer 16. Juni 2024 um 21:13 Uhr - Antworten

    Es wird Zeit, diesen ganzen KI-Unfug zu bekämpfen und zu verbieten, schon alleine wegen des enormen Energieverbrauchs.

  6. Taktgefühl 16. Juni 2024 um 20:16 Uhr - Antworten

    Ich finde, wir sollten das Programm „ChatBot“ nennen, was es ja ist. Auch in der Übersetzung klingt ChatBot sinnig: Schwatzmaschine.
    Dann entfällt das – wie ich finde – ärgerliche Vermenschlichen und die paradoxe Zuordnung „Künstliche Intelligenz“.
    Die Maschine hat keine Intelligenz, da wird ein sehr komplexes Programm abgearbeitet, und das ist wirklich komplex, darin stecken Jahrzehnte Tüftelarbeit. Man schaue sich den Energieverbrauch der ChatBots an: „Chat-GPT fragen könnte 30 Mal so viel Strom brauchen wie googeln. Das ist ein Problem für das Klima“; NZZ
    Ob das ein Problem für das Klima ist, weiss ich nicht, aber der Energievrbrauch bei Millionen Anfragen ist gewaltigt. Da muss eine Windmühle sich lange für drehen.

  7. suzi 16. Juni 2024 um 20:13 Uhr - Antworten

    Ai Ki silicon.god – ernsthaft?
    Das sind Produkte. Nichts weiter.
    Softwareprodukte die anhand von gefilterten Eingangsdaten, gefilterte Ausgabedaten erzeugen. Die Filter werden von Menschen eingerichtet und justiert.
    Bitte lasst mich Euer KI-Instruktor sein. Das wird bestimmt lustig. Garantiert.

    • Hasdrubal 16. Juni 2024 um 21:45 Uhr - Antworten

      Bitte lasst mich Euer KI-Instruktor sein. Das wird bestimmt lustig

      Roboterstimme: Soros gut – Putin böse – Greta gut – Xi böse – Baerbock Gott*ende:in und Mutter Theresa in einem (hat kürzlich in Düsseldorf selber verkündet) – Putin Böse…

      Wozu braucht es noch MdB, wenn es KI gibt, die genauso das Nachplappern lernen kann?

    • andi pi 16. Juni 2024 um 23:37 Uhr - Antworten

      @ suzi
      16. Juni 2024 at 20:13

      nein, das sind nicht bloß produkte.

      99% der menschen haben zumindest gewisse humane gefühle. das ist der grund, wieso 99% der menschen z.b. niemanden aus eigenem entschluss heraus ermorden. einer KI fehlen solche gefühle, womit eine KI sich viel schneller für einem (massen)mord „entscheiden“ würde, wenn der algorithmus sagt, dass daraus statistisch gesehen gewisse vorteile entspringen könnten. ich denke da z.b. an die kubakrise 1962 oder den sowjetischen offizier petrow 1983. hätte damals eine KI über einen atomwaffeneinsatz entschieden – ich denke, die entscheidung der KI wäre pro einsatz von atombomben ausgefallen. und ich denk mir: von dem tag an (der hoffentlich niemals kommen wird), an dem eine KI über den einsatz von atomwaffen (welchen landes auch immer) bestimmt, wird es bis zur auslöschung der menschheit auf diesem planeten keine zehn jahre mehr dauern. solange die bidens und putins (auch wenn ich beide ansonsten für zivilisatorische totengräber halte) die entscheidungsgewalt darüber haben, wird es zu so einem szenario nicht kommen – ja, nicht einmal bei einem kim jong un oder khamenei. die wissen alle, dass ein atomarer erstschlag eine gegenreaktion auslösen würde, die ihr eigenes volk massiv dezimieren würde. und über so eine intelligenz verfügt die K“I“ nun mal nicht.

    • therMOnukular 17. Juni 2024 um 1:41 Uhr - Antworten

      „Das wird bestimmt lustig“

      Das glaube ich auch….;)))
      Aber ist es bei so wenig natürlicher Intelligenz nicht nur zu verständlich, sich nach einer künstlichen Perfektionierung zu sehnen?

      Das ganze Thema KI ist lediglich ein weiterer Turm zu Babel.

  8. Tannenherz 16. Juni 2024 um 19:54 Uhr - Antworten

    Hi, die KI ist nun da und aktiviert. Wenn sie nicht nach den Werten der biblischen Geschichte bindend agiert, ist es für und zu spät. Freundlichst Fiete

  9. Fritz Madersbacher 16. Juni 2024 um 18:53 Uhr - Antworten

    „Wenn die Forschung im Bereich der KI selbst unklar ist, wenn sich die Forscher nicht einig sind, welche Maßstäbe zu wählen sind …“
    Noch schlimmer ist nur, wenn sie sich einig geworden sind und zu einem „Konsens der Wissenschaft“ gefunden haben. Dann ist anzunehmen, dass kapitalskräftige Profithaie Übles im Schild führen und politische „Lenkungsmassnahmen“ mit diktatorischem Charakter zu erwarten sind.
    Wie richtig vermutet, sind die „KI“-Ergebnisse nämlich abhängig davon, welche Maßstäbe (von durchaus unkünstlichen „Intelligenzen“) gewählt worden sind …

  10. marrx 16. Juni 2024 um 17:06 Uhr - Antworten

    mit unsinn gegen logik, die paradoxe intervention wird das silizium zum glühen bringen, wodurch diese sogenannte künstliche intelligenz entweder zum reinen reagieren, oder zu katastrophalen präventivschlägen gezwungen wird.
    die technokratie widerspricht dem philosophischen prinzip, dass der mensch nie mittel zum zweck sein darf, sondern stets selbstzweck zu sein hat.

Regeln für Kommentare: Bitte bleibt respektvoll - keine Diffamierungen oder persönliche Angriffe. Keine Video-Links. Manche Kommentare werden erst nach Prüfung freigegeben, was gelegentlich länger dauern kann.

Regeln für Kommentare: Bitte bleibt respektvoll - keine Diffamierungen oder persönliche Angriffe. Keine Video-Links. Manche Kommentare werden erst nach Prüfung freigegeben, was gelegentlich länger dauern kann.

Aktuelle Beiträge