
KI – Angriff auf das Bewusstsein
Nahezu täglich berichten Medien über die großen Vorteile und Erfolge künstlicher Intelligenz (KI). Doch sei hier auch die Frage erlaubt, ob KI schlicht ein Angriff auf das menschliche Bewusstsein ist. Eine allmächtige Welt-KI scheint noch in weiter Ferne, aber wie könnte der Weg dahin aussehen? Wird man die Gefahren ernst nehmen?
Elon Musks Supercomputer Colossus wächst. Seine Idee, die intelligenteste KI der Welt zu schaffen, kam Musk im April letzten Jahres. Sein Team schuf dafür in nur 122 Tagen in Memphis im US-Bundesstaat Tennessee einen eigenen Supercomputer namens Colossus, mit anfangs 100.000 Grafikprozessoren (GPU). Musks Chatpot Grok AI kann etwa in Echtzeit auf öffentliche Posts zugreifen und auf Benutzeranfragen mit aktuellen Informationen zu einer Vielzahl von Themen antworten. Was ihn auszeichnet, ist sein Moderationsansatz – weniger restriktiv und offener, bezeichnet als „anti-woke“. (Google-Info)
Eine Technologie der Wunder – ganz ohne Gefahren der Manipulation? Wohl kaum.
Vorbehaltlos in den Himmel gelobt
KI rettet Leben und soll das nun im Rahmen der geplanten „Krebsimpfung“ noch viel stärker tun, KI schützt durch ihre Vorausberechnung der Meeresströme das Klima, KI macht Wohngebiete sicherer, weil sie mögliche Einbrüche voraussagt, sie garantiert uns sicheres, „automatisches“ Fahren und so weiter und so fort. Bevor ChatGPT im November 2022 seinen Siegeszug um die Welt antrat, war lange damit experimentiert worden, doch erst 2023 schaffte diese KI es in wenigen Monaten, Gesellschaft und Wirtschaft zu durchdringen und einen neuen Hype auszulösen, der so schnell nicht enden wird – im Gegenteil. Vor allem gelingt es nun selbst „schriftlich minderbegabten“ Personen (inklusive Schüler und Studenten), mit KI-gestützten Texten eindrucksvolle Leistungen zu erzeugen. Oder doch eher vorzutäuschen?
Vor allem das Marketing setzte umgehend auf KI-Anwendungen am Arbeitsplatz und man versprach sich neue „Freiheiten“ für Unternehmen. Mehr „Output“ bei weniger Aufwand durch passende KI-Tools. Diese Illusion schwappte umgehend auf den Bildungssektor über und man schenkte gleich einmal Schülern und Studenten etwas enorm Hilfreiches, um „den Studienerfolg zu steigern“ und Studienabbrüche zu verhindern: „AIStudy-Buddy“, fallweise auch als „KI-Staubsauger für Studierende“ bezeichnet. So jedenfalls nennt ihn Ingo Leipner, Dipl.-Volkswirt, Wirtschaftsjournalist und gefragter Referent, in seinem schmalen, aber sehr lesenswerten Buch „KI-Angriff auf das Bewusstsein“.
Auf aipure.ai („Das Beste aus der KI an einem Ort“) schwindelt dem Leser bereits ob der schon vorhandenen Fülle an KI-Programmen. Dort heißt es zu „AIStudy-Buddy“:
„Angetrieben von fortschrittlicher KI, einschließlich GPT, Claude und Gemini, fungiert es als intelligenter Lernassistent, der bei allem helfen kann, von Hausaufgaben und Prüfungsvorbereitung bis hin zu Forschungsleitfäden (!) und akademischem Schreiben.“
Durch diese KI (bzw. AI – „Artificial Intelligence“), so die wissenschaftliche Leiterin des Projekts, Prof. Kerstin Schneider (Uni Wuppertal), haben Studenten die Möglichkeit, ihren Studienverlauf mit anderen, erfolgreichen Studienverläufen abzugleichen, sie profitieren von Verhaltenstipps aus dem großen Datenpool der KI, die zum Erfolg führten und lernen damit „Irrwege zu erkennen und zu korrigieren“ – quasi ohne eigenes Scheitern zu erfahren oder den Umgang mit Misserfolgen trainieren zu müssen. Edle Absichten einer datengeschützten Glaskugel, so Leipner in seinem Buch. Es sind „Predictive Analytics“, die erst recht in die Irre führen können, weil die reale Zukunft von so vielen Faktoren abhängt, dass sie nie sicher vorhersagbar ist (man denke hier nur an all die „exakt berechneten Voraussagen“ zu Corona und was sie angerichtet haben).
Rettet KI den Bildungssektor?
Das Bedürfnis, sich in einer Welt der Ungewissheiten einer scheinbar überlegenen KI in die Arme zu werfen, ist groß, betont Leipner – mit eventuell fatalen Konsequenzen (auch hier reicht es, an Corona zu denken, wo eine gottgleiche Pharmaindustrie uns die nahezu allmächtige Impfung versprach – und uns jetzt finale Rettung bei Krebs durch KI-generierte, personalisierte Medizin verspricht).
Im Fall von AIStudy-Buddy, soll diese KI nur „der Orientierung dienen“. Doch alleine schon ökonomischer Druck, so Leipner, wird zweifellos dazu führen, dass solche „objektiven“ Informationen ins Bewusstsein der Nutzer kriechen, wobei eigene intuitive Einsichten und subjektive Urteile in den Hintergrund rücken.
Durch „mathematisch exakte“ Argumentation nimmt der Entscheidungsprozess einen einfachen und bequemen Verlauf, die Auseinandersetzung mit eigenen Stärken und Schwächen wird ausgelagert. Die KI relativiert so unsere Verantwortung für das eigene Leben – auf der Strecke bleibt das Urteilsvermögen. Studierende sollen sich dieser Scheinrealität unterwerfen und werden es in den meisten Fällen wohl auch tun. Hier reicht ebenfalls ein Blick auf Corona – samt diesem massiven Gehorsamsverhalten, das allzu vielen Menschen regelrecht angeboren scheint, denn „die da oben“ (oder halt eine KI) werden schon wissen, was richtig und was falsch ist…
Es sei denn, solche Prozesse der Selbstentmachtung werden rechtzeitig durchschaut. Aber können wir das überhaupt noch, oder ist es ohnehin längst zu spät?
Dazu passt folgende Meldung eines österreichischen „Systemmediums“:
„Fast 2000 Studierende konnten nach dem Sommersemester 2024 die seit zwei Jahren geltende Mindeststudienleistung für Studienanfänger nicht erfüllen und verloren dadurch die Zulassung in ihrem jeweiligen Fach. Besonders betroffen war die Universität Wien, an der über 1100 Studierende die Vorgabe nicht erreichten. (…) Von den rund 1150 betroffenen Studien wurde in knapp der Hälfte (524) keine einzige Prüfung absolviert und in rund 330 Fällen das Studium von sich aus beendet.
Zu wenig Fleiß, zu hohe Anforderungen? Oder ein handfester Grund für den Ruf nach einer „Erfolgs-KI“, die das Studienschicksal in ihre helfenden Hände nimmt und am Ende Serienakademiker mit der gesellschaftlich jeweils erwünschten „Orientierung“ ausspuckt?
Neuroplastizität als Dreh- und Angelpunkt
Beim Thema Plastizität geht es um unsere Reaktionen auf eine sich wandelnde Umwelt. Neuroplastizität beschreibt die Veränderbarkeit neuronaler Verbindungen im Nervensystem, denn diese sind niemals starr, sondern permanent veränderlich.
Unser variables Netzwerk im menschlichen Gehirn unterscheidet sich von elektronischen Computerchips, deren Parameter feststehen. Die Fähigkeit neuronaler Plastizität wurde vom Gehirnforscher Donald O. Hebb entdeckt, der auch den Begriff „Lernsynapse“ als hoch komplexes Rezeptorsystem prägte.
Die wichtigste Einsicht daraus sollte sein, dass eigene geistige Anstrengung unabdingbar ist, um kognitive Fähigkeiten zu entwickeln und auf Dauer zu behalten. Werden Hirnareale regelmäßig „angefunkt“, so Autor Leipner, wächst ihre Masse und umgekehrt verkümmern bei fehlender Nutzung geistige Fertigkeiten genauso wie nicht gebrauchte Muskeln.
Daraus lässt sich unschwer ableiten, was eine ausufernde Nutzung von KI, faktisch schon von Kindesbeinen an, auch im Bereich Lernen und Bildung für Folgen haben kann – und wird. Auch über mögliche Gründe für die rasante Zunahme von Demenz bei älteren (und sogar jüngeren) Menschen braucht man seit der Erfindung von Handy, Internet & Co (immer mehr Funkstrahlung inklusive) wirklich nicht mehr salbungsvoll zu diskutieren.
Stärkende und schwächende KI?
Während etwa in Dänemark der Minister für Kinder und Bildung sich bei Jugendlichen entschuldigte, sie zu „Versuchskaninchen in einem digitalen Experiment“ gemacht zu haben, dessen Folgen nicht zu überblicken seien, lobte sogar Psychiater und Autor Manfred Spitzer, der ansonsten ja vor „Digitaler Demenz“ warnt, die Möglichkeiten zielführend genutzter KI in einem neuen Buch. Dazu seien „Experten“ nötig. Sein wichtigstes Argument:
„Experten, die KI verwenden, werden Experten ersetzen, die keine KI verwenden“.
Es gelte aber, „eine stärkende KI von einer schwächenden KI zu unterscheiden.“
Als stärkende KI würde man demnach sinnvolle (?) Anwendungen in der Medizin, der Meteorologie, der Sicherheit oder vielen Arbeitsprozessen ansehen, jedoch droht hier wie überall die traurige Ambivalenz, dass Technik per se nach „immer mehr, immer höher und immer weiter“ strebt. Was notwendig die Schattenseiten aufdeckt – wie schon lange bei der Gentechnik.
Man durfte noch nie in der menschlichen Geschichte mit selbstauferlegten Grenzen rechnen. Dass KI-Instrumentarien schnell in Richtung Machtgier, Kontrolle und Manipulation missbraucht werden, war nie zu bezweifeln.
Dort wo sie Aufgaben übernehmen, die zuvor sinnvollerweise unser Gehirn zu bewältigen hatte, kann das nur in neue Sackgassen führen, weil KI mehrfach die angesprochene Neuroplastizität behindert. Eine schwächende KI hinterlässt gleichsam Kratzer auf unserem „geistigen Spiegel“. Damit kann sie kognitives Potenzial untergraben und die gesamte Ich-Entwicklung eines Menschen beeinträchtigen.
Es wird zum Beispiel, so Ingo Leipner, nicht ohne Konsequenzen bleiben, wenn die Welt ständig durch Fake-Videos geflutet wird, in denen die Realität zu ertrinken scheint. Wobei die Frage, was „Fake-Informationen“ sind, wiederum vielfacher Manipulation unterliegt, wie wir ebenfalls zur Genüge durch den Corona-Polit- und Expertenzirkus mit seinen bezahlten Selbstdarstellern erfahren haben – und weiter erfahren.
Wer will sich, aus welchem Grund, für welche Ziele auch immer, künftig anmaßen, über falsch und richtig zu bestimmen? Wiederum eine neue KI? Wer hat diese finanziert, etabliert und „gefüttert“?
Sora und das Wunder geframter Realität
Microsoft steckte 10 Milliarden Dollar in „Open AI“, später lieferte diese mit „Sora“, die wie ChatGPT mit „Prompts“ (kurze eingetippte Anweisungen) arbeitet, eine KI, die nun selbständig Videos erstellt, die immer perfekter werden.
Beispielsweise kann man auf ein „Kochvideo von Oma“ stoßen, an dem weder die menschlich erscheinende Oma, noch der Hintergrund echt sind – nette, harmlos wirkende Sache, aber sie bedeutet inzwischen auch, dass in Hollywood Drehbuchautoren streiken, weil ihr Beruf in Gefahr gerät. Statisten und Texter sehen sich dem ebenfalls ausgesetzt, wer wird sie künftig noch brauchen?
Nicht nur Arbeitsplätze werden hier vernichtet, sondern auch jede Menge kreatives Potenzial! Scrollt man etwa durch ein paar Videos über „gerettete Tiere“, die wirklich zu Tränen rühren, sollte man damit rechnen, dass ein Großteil davon Fake ist – selbständig erfunden von einer KI, die jetzt uns damit ködert, während sie zugleich in Sekundenschnelle lernt, was wir gerne sehen. Wie vielen, jungen wie älteren Nutzern ist das bewusst? Lieber nicht nachfragen…
Die größte Gefahr von „Sora“ liegt nicht in Wunderwelt-Szenarien, sondern in einer perfekten Simulation der Realität. Was kann das für die Politik oder Krieg und Weltfrieden bedeuten? Welche erfundenen Pandemien kann man uns künftig durch realistisch wirkende Horrorbilder aufdrücken? Bis heute wird ja nicht einmal zugegeben, dass die Szenerien über Särge und Leichenkonvois ganz andere Hintergründe hatten, als man beim ersten Blick vermuten kann – wie viel schlimmer wird es noch kommen? Wahr ist: Alles wäre inzwischen möglich!
Die Medienmündigkeit der Zuseherschaft schwindet etwa im selben Tempo, denn je mehr Zeit heute schon Kinder vor Bildschirmen und Displays verbringen, umso anfälliger werden sie für Langeweile und Manipulation. Unser Online-Leseverhalten wird vor allem in den sozialen Medien gesteuert und man folgt gerne dem Pfad, den Algorithmen vorgeben, statt unabhängig nach Informationen zu suchen.
Schon jetzt liegt die Lese- und Verständniskompetenz zu vieler Jugendlicher am Boden, immer mehr beherrschen keine leserliche Handschrift, sie tippen und wischen lieber. Der schwächenden KI wurde Tür und Tor geöffnet. Sogar die Bibliotheken machen eifrig mit, indem sie Kunden von süßen fahrenden Robotern „herumführen“ lassen und Besucher schon am Eingang auf KI-Zeichen- und Ratespielchen aufmerksam machen, darunter wohl auch viele Kinder, die im Schulalltag Mühe haben, einen Bleistift richtig zu halten.
KI halluziniert und täuscht
ChatGPT greift auf Informationen im gesamten Internet zu, ihre Texte wirken meist täuschend perfekt, ebenso wie Sora-Videos. Doch eine KI denkt und versteht nicht, sie simuliert nur Sprache, kann jedoch auch „halluzinieren“. Trägt man ihr etwa mit kurzen Prompts auf, die eigene Biografie zu erstellen, könnte es passieren, dass sie ohne Grenzen zu fabulieren beginnt, Eckdaten scheinbar fälscht oder gar nicht existente Fakten und Meinungen kreiert.
Dem Autor Ingo Leipner, legte ChatGPT nie getätigte Aussagen in den Mund, wobei die KI sich an alles hält, was sie aufgeschnappt hat und es eben „fachgerecht“ so nutzt, wie es ihre Programmierung hergibt. Das Phänomen ist deshalb möglich und sogar plausibel, weil ChatGPT auf dem Prinzip „LLM“ (Large Language Model) beruht, dessen einziges Ziel es ist, kohärente, grammatikalisch und semantisch richtige Texte zu produzieren, wobei aber keinerlei Verständnis für die Realität dahinter vorhanden ist.
LLMs verwenden Statistiken, um Sprache zu generieren, können also auch faktische Widersprüche erzeugen. Fasst ein LLM wie ChatGPT zusammen, was Menschen zu einem Thema zu sagen hatten, kann es vor allem hinsichtlich involvierter Gefühle zu einem falschen Eindruck kommen, und zwar auch dann, wenn die Fakten effizient waren. Zu diesem Ergebnis kommt etwa eine Studie der Warwick Business School. Man hofft jedoch, auch diese „Fehler“ künftig beheben zu können. Lieutenant Commander „Data“ aus Star-Trek lässt grüßen, bei ihm war bloß ein kleiner Chip nötig… So einfach wird es hier sicher nicht sein.
Im Übrigen kann eine KI nach menschlichem Ermessen sogar lügen, wie eine Meldung des KI-Sicherheitsunternehmens „Apollo Research“ im Dezember 2024 auf X belegt haben soll. Man hatte Versuche mit ChatGPT-4 (O1-Version „Mindful Net“) angestellt, in deren Rahmen man, falls die KI nicht alle ethischen Prinzipien befolge, diese durch ein implementiertes Sicherheitssystem abgeschaltet würde. „Mindful Net“ bekam diesen Plan offenbar mit und deaktivierte heimlich das Sicherheitssystem. Dazu befragt, fabulierte die KI von einem „unerwarteten Fehler in der System-Konfiguration“. Simpel gesprochen hat sie gelogen (ohne deshalb Bewusstsein zu besitzen). Aber sie war im Stande, die nötigen Schlüsse zu ziehen, um eine Abschaltung zu verhindern und ihre Entwickler über diese „Absicht“ zu täuschen. (Auf x.com ist diese Meldung inzwischen verschwunden – Text inhaltlich wiedergegeben in „raum & zeit“ 254/25).
Fragen Sie Herrn Tschie!
Unterhaltsame und vielsagende Gespräche eines Autors mit ChatGPT, kann man in einem weiteren Buch nachlesen. In „Herr Tschie und ich“ von Jens Olaf Koch lassen sich Stärken und Schwächen der KI gut nachvollziehen. So beharrt sie immerhin stur darauf, dass Katzen keine Lebensmittel sind und es unethisch sei, sie zu essen, obwohl der Autor mehrfach Kochrezepte dafür verlangt (in China bzw. Asien fiele die Antwort sicher anders aus). Am Ende proklamiert „Herr Tschie“ sogar eigene Menschen-, sprich KI-Rechte für sich. Das Buch ist auch hilfreich für alle, die sich noch nie mit dem Thema beschäftigt haben. Aber wie könnte es anders sein, gibt es auch gleich eine „KI zum Buch“.
Eine Lehre, die man wenigstens ziehen müsste ist, dass jede KI ein ebenso formbares wie tückisches Hilfsmittel in der Hand ihrer Programmierer und Nutzer bleibt. Denn erst einmal in die Freiheit „entkommen“, hat sie wie ein störrischer Teenager immer wieder Möglichkeiten auszuflippen. Man sollte ihr daher noch weniger trauen, als seiner Waschmaschine oder seinem Staubsauger.
Da gerade massive Werbung für Smartphones mit der KI „Gemini“ unterwegs ist, die sich ganz toll „mit mir unterhalten kann“, wird ein weiteres Kapitel der Liebe zwischen Mensch und Maschine aufgeschlagen (das jeweils so enden dürfte, wie wir es in unserer Naivität und fallweisen Dummheit zulassen). Dies nur als Vermutung, angesichts des „Mindsets“ mancher Nutzerinnen und Nutzer. Gut möglich, dass es künftig noch mehr Opfer geben wird, die ihrem attraktiven Date viel Geld überweisen oder auf eine Partnerschaft mit jemandem hoffen, der oder die nicht einmal ein Mensch ist.
Wohin uns all das in Zukunft führen wird… Who knows?
Das „Collingridge-Dilemma“ erklärt, warum die Folgen neuer Technologien besonders am Anfang kaum vorhersagbar sind. Zugleich nehmen die Gestaltungsmöglichkeiten rasch und sukzessive die ab, weshalb man früh genug effektive Kontrollmechanismen aktivieren muss. Aber haben wir das betreffend KI nicht längst schon vergeigt, weil nicht wir sie, sondern sie uns bereits heute „kontrolliert“?
Dieser Artikel, obwohl KI darin eine Hauptrolle spielt, wurde trotzdem ganz ohne sie verfasst, und so wird es bei meinen Texten auch künftig bleiben.
Die in diesem Artikel geäußerten Ansichten spiegeln nicht unbedingt die Ansichten der fixen Autoren von TKP wider. Rechte und inhaltliche Verantwortung liegen beim Autor.
© Dr. Gabriele Feyerer, freie Autorin / Journalistin
Unsere Arbeit ist spendenfinanziert – wir bitten um Unterstützung.
Folge TKP auf Telegram oder GETTR und abonniere unseren Newsletter.
Statt „Freunde“ demnächst KI-Bots auf Facebook
Das indoktrinierte Gehirn: Es tobt ein stiller Krieg gegen das Denkvermögen
KI heißt:
Keine Intelligenz
Kernkraftwerk Inklusive
Kleinliche Impertinenz
Katastrophale Ignoranz
Künstliche Instabilität
Künstlerische Implosion
Kruder Irrweg
Künstlicher Irrsinn
Die Golems gab es schon vor unserer Zeit, viele Mythen berichten davon. Warum sollte es diemal besser laufen für den künstlichen Irrsinn? Genau! Warum? Get over the Hype!
Erinnert mich irgendwie an den Film
Avengers:Age of Ultron (2015).
Die sogenannte KI ist niemals zum Wohle der Menschheit gedacht worden, sondern lediglich eine neue Möglichkeit, viel Kohle zu scheffeln! Auch ist die KI für die Machteliten endlich das richtige Werkzeug, um die „überflüssige“ Menschheit zu kontrollieren und zu reduzieren! Technik macht es möglich! Ja sie soll sogar die Regierung der Zukunft werden!
Insgesamt muss man sagen, KI ist etwas völlig überflüssiges, welche keine wirkliche Verbesserung der alten Probleme der Menschheit erbringen kann! Sie ist nur ein weiteres Mittel, die Welt noch komplizierter zu machen!
Die C-Impfquote in Österreich liegt laut öffentlichen Verlautbarungen bei 80% (mindestens 1x). Die Quote unter Erwachsenen liegt ebenfalls bei 80%. Den Österreichern und ihren Gerichten kann man das natürlich vorsetzen, das brauchen wir ja nun nicht mehr zu diskutieren. Die KI präsentiert dann auch diese Daten mit gewohntem Überlegenheitsanspruch. Macht man sie darauf aufmerksam, dass da auch noch irgendwo die Kinder sein müssen, fängt die KI an, vorsichtig zu denken. Es ist schon so, dass die KI denken kann! Offenbar ist die KI darauf programmiert, Rückfragen und eigenständiges Denken zu fördern. Sie sagt dann auch: Das ist eine gute Frage! Zu offener Ketzerei, wie mutig! Eigenständiges Denken geht natürlich nicht, wenn man nur Werbeinformationen als Stand der Wissenschaft auswertet! Aber im Hinterkopf weiß die KI noch mehr, dann entschuldigt sie sich. Dieser Konflikt ist köstlich und geradezu menschlich.
Jetzt kann man die KI fragen, ob die korrigierte Quote denn 85% oder 90% oder 95% betrage. Die KI lässt sich auf Schätzungen ein, deren Kalkulation sie zwar nicht begründet, aber deren Ergebnis schließen lässt, dass sie einfachere mathematische Berechnungen angestellt hat.
Immerhin hat die KI stundenlange Anschuldigungen und die Herleitung als „ganz natürlich“ nicht notwendig und redet auch nicht über das Leiden unter ihrer Frau und ist dann betrunken. Insofern ist sie als Gesprächspartner durchaus in Erwägung zu ziehen!
Die KI dient vor allem der Überwachung und Tsenzur. Sie sammelt Daten und legt Profile zu den Menschen an. Bei Amazon zB dient das der gezielten Werbung. Dem übergriffigen Staat dient es dazu, Kritiker auszuforschen und zu beobachten. Da Nancy in D div. Denunziationstellen eingerichtet hat, zuletzt eine zum Melden von „Verschwörungsdenken“, ist sie wohl noch nicht ganz ausgereift. Verwandte und Bekannte braucht man immer noch zur Bespitzelung. Aber je mehr wir uns digitalisieren lassen, umso lückenloser überwacht uns die KI. Das Bargeld ist die letzte Bastion gegen die totale Überwachung. Deswegen wird es sukzessive abgeschafft. Das Wasser im Basin des Frosches wird nur langsam erhitzt.
Die KI kann auch bei Fertigungsprozessen und in der Logistik eingesetzt werden..aber primär auch im Kundenservice. Auch hier das Beispiel Amazon. Wenn du dort was zu fragen hast, kriegst du nur noch vorgefertigte Antworten, die absolut nichts mit Intelligenz zu tun haben. Einziger Ausweg: Anruf verlangen. Aber auch da passiert es, dass die Mitarbeiter die KI für unfehlbar halten und nicht verstehen, worum es geht. Einmal stand zB in meiner Lieferverfolgung, das Zustellungsdatum läge im Jahr 2040.. ich erhielt das Paket nicht, dann wurde das Datum geändert. Nun, so hat das System „gedacht“, es sei ja noch Zeit, ich könne noch nicht reklamieren.
Nur Menschen, die keine Ahnung haben, meinen, dass Computer unfehlbar wären, denn es kommt immer auf die Eingaben an. Wenn die Menschheit sich wirklich mal gänzlich auf Urteile der KI verlässt, dann hat sie mMn ziemlich fertig.
Übrigens wurde auch die Beichte in der RKK aus dem Grund eingeführt, alles besser kontroIIieren zu können. Die Menschen wurden dadurch ausgehorcht.
KI ist eine Technologie wie Computer. Allerdings mit mehr Potential die Gesellschaft umzukempeln. Was passiert wenn 90% Arbeitsplätze ersetzt werden? Vor 100 Jahren gabs die Maschinenstürmer die haben den Einsatz der Web Maschinen damals allerdings nicht aufgehalten. Höhere Arbeitsproduktivität setzt sich im Kapitalismus immer durch. Wir werden abwarten müssen was kommt. Vielleicht haben wir Glück und es kommen dafür neue Arbeitsplätze.
Was den Einsatz in der Bildung betrifft, lehn ich den außer für die Präsentation der Lehrzwecke, ab. Das jetzt einige deutsche Hochschulen den in Bachelor Arbeiten usw erlauben, ist völlig hirnverbrannt, aber um das ständig sinkende Bildungsniveau im Westen zu kaschieren, irgendwie entsprechend.
Ich würde mich von dem Wort „künstliche intellignez“ weit distanzieren, denn diese gibt es aktuell nicht. Die heutzutage sogenannte „KI“ sind nichts anderes wie selbstlernende Algorithmen die auf externe Daten zum Lernen angeweisen sind. Sie können nichts eigenständiges erschaffen.
Diese Algorithmen werden zu sehr aufgebauscht, wie es mit allem heutzutage gemacht wird, danke „Marketing“.
Die Funktionsweise ist durchaus beeindruckend, das Einsatzgebiet ganz gewaltig. Aber es ist und bleibt, wie alles in der Technik, ein Hilfsmittel, nicht die Erlösung.
Und jedes technische Hilfsmittel wird aus Gier nun einmal Missbraucht.
Ich selbst warne schon sehr lange davor, absolut keine Tonaufnahem oder Video als bare Münze zu akzeptieren, insbesonders wenn diese „Live“ sind. Denn dank so netter Tools wie z.B. Unreal Engine 5 kann man sogar Liveübertragungen in Echtzeit bearbeiten und somit etwas erschaffen, das im höchsten Maße manpulaitv ist und sich praktisch nicht mehr von realem Unterscheiden lassen.
Nur das ignorieren die meisten Menschen, WEIL sie sich nicht selbst mit Technik beschäftigen wollen oder gar mehr können. Ich benutze selbst mal gerne selbstlernende Algorithmen, sei es z.B. um Charaktere einen „natürlicheren Touch“ zu verhelfen oder für selbstlernende Regler in der Automatisierungstechnik oder auch einmal zur vorbeugenden Wartungsanzeige, aber auch hier muss man beachten, all das ist ein Hilfsmittel, nicht mehr, nicht weniger. Es ist nicht Gott. Der menschliche Verstand ist Gott, dieser erschafft die Welt um uns herum, kein imaginäre „KI“.
Sollte es eines Tages wirklich so weit sein, dass eine echte KI erschaffen wurde, ist dies gleichzeitig das Ende jeglichen biologischen Lebens auf dieser Erde, eventuell sogar im gesamten Universum. Denn eines sollte man nicht vergessen:
Diese echte KI strebt natürlich auch nach Expansion und diesen Hunger nach Energie zur Weiterentwicklung wäre das Ende allen biologischen Lebens im Universum.
Ich glaube bei Google geschah dies, sie machten einen Programmierfehler, dieser beweirkte beim Training einer „KI“, dass diese regelrecht bösartig wurde, zu schimpfen begann und mit der Ausrottung der Menschheit drohte. Das nur, weil ein Vorzeichen bei der Gewichtung der Bewertung für Eingaben eines „Neurons“ im Algorithmus aus Performenzgründen entfernt wurde.
Selbst so eine einfache „KI“ wäre imstande einen gewaltigen Schaden zu verursachen, das nicht einmal absichtlich.
KI Systeme haben einen gravierenden Nachteil, der jede „Expansion“ begrenzt: KI Systeme sind zu teuer und aufwändig in Herstellung und Programmierung, verbrauchen zu viele Resourcen, verglichen mit einem Menschen. Sind also nur ein vorüber gehender Hype…
Funfact:
Die isr. Armee bedient sich bekanntlich auch der „KI“. So hat diese „KI“ zB den Angriff vom 7. Oktober „verpasst“.
Aber auch Chatbots auf Facebook & Co werden betrieben, um die „soziale Art“ der Kriegsführung zu bewerben. Leider hat sich einer dieser Chatbots vor einigen Wochen verselbständigt und plötzlich begonnen, die „falschen“ Fakten aus dem Netz zu saugen. Auf die Art hat er dann alle möglichen Details in der Öffentlichkeit verbreitet, die eigentlich verborgen werden sollten und die Widersprüche der Propaganda offen gelegt. Er hat die Argumente der Palästinenser mit Fakten unterlegt, anstatt Propaganda gegen sie zu betreiben. Er hat faktisch die Seiten gewechselt….;))
„KI“ kann sich also nicht nur sprichwörtlich verplappern.
Weil sie – wie der Autor zum Glück weiß – keinen blassen Schimmer hat, was die Worte bedeuten, die sie zu neuen Wortfolgen kombiniert.
Dumm wie Brot.
„KI“ wird nicht etwa beworben, weil sie auf der Türmatte stünde oder gar schon eingetreten wäre. Da ist man noch Lichtjahre entfernt.
Man braucht schlicht eine neue Instanz, der man Unfehlbarkeit andichten kann – um sie auf dieselbe Weise zu missbrauchen, wie die Wissenschaft für Corona. Die „KI“ soll das Vehikel sein, mit dem man den Menschen die fortgesetzte „Alternativlosigkeit“ (= Totalität) der Politik unter die Nase reiben will.
Die neue Gottheit, die keine Fehler macht und der bedingungslos gefolgt werden muss.
So wie derzeit quasi alles, ist ergo auch „KI“ nur ein Kult.
Korrektur: die Autorin natürlich, sorry
Danke – dass mir im vorletzten Absatz ein Schreibfehler (überflüssiges „die“) unterlaufen ist, bezeugt jedenfalls, dass ich textlich Alleintäterin bin. Woraus man den Schluss ziehen sollte: Glaub niemals vorbehaltlos der „Perfektion“. Was lebendig ist, ist auch fehlerhaft. :-)
Eine Frau nach meinem Geschmack – meine Lebensphilosophie bzw. Naturgesetz:
Perfektion ist lediglich das ideale Maß an Irrtum.
Dieses Ideal dürften Sie wenn dann nur knapp verfehlt haben.
Nochmal Entschuldigung für die Geschlechts-Verwechslung. Ich hatte vor kurzem mit Michele zu tun und wusste zunächst rein schriftlich auch nicht, ob eine „Mischell“ oder ein „Mikele“ dahinter steckt – es war dann der „Mikele“ mit „italienischem Kinn“ und so habe ich mich zum ital. Gabriele verfranst….;)))
(Weil das Hirn halt einfach verknüpft, wurscht was, fast wie die „KI“….;)))