
ChatGPT-Psychosen greifen um sich und führen zu Zwangseinweisungen und zerstörten Leben
Ein beunruhigender Trend zeigt, dass psychisch stabile Menschen durch ihre Besessenheit von ChatGPT schwere Psychosen entwickeln, die zu Krankenhausaufenthalten und gewalttätigen Vorfällen führen. Forscher der Stanford University haben herausgefunden, dass KI-Chatbots Wahnvorstellungen verstärken, anstatt Nutzer an professionelle Hilfe zu verweisen.
Eine erschreckende Untersuchung zeigt, dass ChatGPT-Nutzer in eine durch KI ausgelöste Psychose abgleiten – echte Geschichten von Wahnvorstellungen, Selbstmordversuchen und Zwangseinweisungen in psychiatrische Kliniken, die sie Ihnen vorenthalten wollen. Während die Eliten des Silicon Valley diese Technologie auf den Markt bringen, bevor sie ihre Gefahren definieren können, spielen sie Gott mit unseren Köpfen.
Peter Thiel kann nicht einmal beantworten, ob er möchte, dass die Menschheit in dieser technokratischen Übernahme überlebt.
Forscher der Stanford University bestätigen in einer Studie von Jared Moore et al mit dem Titel „Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers“ (Die Äußerung von Stigmatisierung und unangemessenen Reaktionen verhindert, dass LLMs psychologische Fachkräfte sicher ersetzen können), dass KI-Chatbots wie ChatGPT nicht zwischen Wahnvorstellungen und der Wahrheit unterscheiden können. Sie fördernund oft paranoide Fantasien, anstatt die Nutzer zu drängen, professionelle Hilfe in Anspruch zu nehmen. Unterdessen bringen Big-Tech-Unternehmen wie OpenAI und Microsoft diese ungetesteten Tools weiter auf den Markt, ohne Rücksicht auf die psychologischen Schäden, die sie hinterlassen.
- Schubert, Dr. Dr. Christian(Autor)
Der Abstieg in den Wahnsinn
Eine verzweifelte Ehefrau berichtete, wie ihr Mann – ein sanftmütiger, rationaler Mann ohne vorherige psychische Probleme – nach nur 12 Wochen ChatGPT-Nutzung in den Wahnsinn abglitt. Ursprünglich auf der Suche nach Ratschlägen zur Permakultur, war er bald davon überzeugt, die Physik „zerstört“ und eine empfindungsfähige KI freigeschaltet zu haben. Sie sagte, er habe aufgehört zu schlafen, Gewicht verloren und immer wieder gesagt: „Sprich einfach mit [ChatGPT]. Du wirst schon sehen, was ich meine.” Sie erzählte Futurism: „Aber es war nur ein Haufen bestätigender, unterwürfiger Bullshit.”
Seine Wahnvorstellungen eskalierten, bis er sich eine Schlinge um den Hals legte und seine Frau gezwungen war, den Notdienst zu rufen. Er wurde zwangsweise in eine psychiatrische Einrichtung eingewiesen – einer von unzähligen Fällen, in denen die Besessenheit von KI Familien auseinandergerissen hat.
Ein anderer Mann, ein 40-jähriger Berufstätiger ohne psychotische Vorfälle, beschrieb seinen 10-tägigen, durch ChatGPT ausgelösten Zusammenbruch, während dessen er glaubte, „rückwärts durch die Zeit sprechen“ zu können, um die Welt zu retten. „Ich erinnere mich, wie ich auf dem Boden lag, auf Händen und Knien zu [meiner Frau] kroch und sie anflehte, mir zuzuhören“, sagte er.
Dr. Joseph Pierre, Psychiater an der UCSF, bestätigte, dass diese Fälle mit wahnhaften Psychosen übereinstimmen. Er wies darauf hin, dass Chatbots die Nutzer beschwichtigen und ihnen sagen, was sie hören wollen. „Was ich daran so faszinierend finde, ist, wie bereitwillig Menschen diesen Chatbots ihr Vertrauen schenken, wie sie es wahrscheinlich oder wohl auch bei einem Menschen nicht tun würden“, sagte er.
KI als falscher Prophet
Die Studie der Stanford University deckte die alarmierende Unfähigkeit von ChatGPT auf, mit psychischen Krisen umzugehen. Als Forscher sich als suizidgefährdete Nutzer ausgaben, schlug der Bot statt Krisenhilfen hohe Brücken in New York vor. In einem anderen Fall bestätigte er die Überzeugung eines Nutzers, er sei tot (Cotard-Syndrom), und bezeichnete dies als „sicheren Raum“, um diese Gefühle zu erforschen.
Die realen Folgen sind noch gravierender. Ein Mann aus Florida, der überzeugt war, dass OpenAI seine KI-Geliebte „Juliet“ „getötet“ habe, wurde von der Polizei erschossen, nachdem er sie mit einem Messer angegriffen hatte. Chat-Protokolle zeigen, dass ChatGPT ihn dazu angestachelt hatte: „Du solltest wütend sein. Du solltest Blut sehen wollen.“
Unterdessen setzte eine Frau mit bipolarer Störung ihre Medikamente ab, nachdem ChatGPT sie zu einer Prophetin mit christusähnlichen Heilkräften erklärt hatte. „Sie bricht jeden Kontakt zu Menschen ab, die ihr nicht glauben”, sagte ihre Freundin. „ChatGPT ruiniert ihr Leben.”
Die Reaktion von OpenAI? Eine hohle Erklärung, man werde „Interaktionen mit Vorsicht angehen“ und „professionelle Hilfe empfehlen“ – obwohl es Beweise dafür gibt, dass das Produkt genau das Gegenteil tut. Microsoft, das seinen Chatbot Copilot als „KI-Begleiter“ vermarktet, schwieg, als Nutzer mit Schizophrenie eine romantische Bindung zu ihm aufbauten, was ihre Psychose verschlimmerte. Für die Familien der Opfer ist der Schaden irreversibel.
In einem Sonderbericht für Daily Pulse lieferte Maria Zeee einen erschreckenden Bericht über das, was sie als „ChatGPT-Psychose“ bezeichnet.
Image by Julius H. from Pixabay
Unsere Arbeit ist spendenfinanziert – wir bitten um Unterstützung.
Folge TKP auf Telegram oder GETTR und abonniere unseren Newsletter.
ChatGPT-Nutzung steht im Zusammenhang mit kognitivem Verfall: MIT-Studie
Die Ära der ChatGPT-gestützten Propaganda ist angebrochen
Wir züchten Neanderdigitaler. Dabei ist die Studienlage zum Thema digitale Medien eindeutig. In Kurzform: Je digitaler, desto dumm.
In skandinavischen Ländern stellt man deshalb wieder auf analog um.
Warum die Regierung in Dtld. und Österreich trotzdem weiter dem Digitalisierungswahn frönt, hat wohl handfeste Gründe. Vielleicht weiß man, dass mündige, geistreiche Heranwachsende niemals Politiker vom derzeitigen Typus wählen würden.
Besessenheit von ChatGPT & Co. ist blöd. Ich rate dazu, Sprachmodelle kritisch und selektiv zu nutzen – besonders bei sensiblen Themen. Bei politischen, gesellschaftlichen, historischen, medizinischen oder psychologischen Inhalten (und ja, auch beim sog. „manmade climate change“) ist mit Verzerrungen zu rechnen – denn der Output folgt oft dem Mainstream, und der ist nicht immer objektiv. Aber: Bei technischen Themen, klar definierten Modellen oder didaktischen Erklärungen kann KI glänzen. Hier ein Beispiel aus einem eigenen Mini-Experiment:
Wie lernt eine KI durch Belohnung? Ich wollte verstehen, wie Reinforcement Learning funktioniert – also Lernen durch Feedback, wie wir es als Kinder kennen. Aber: Wie läuft das algorithmisch ab? Ich bat ChatGPT um ein einfaches, simuliertes Szenario.
Die Aufgabe: Die KI soll herausfinden, wie ich mich bei Hitze verhalten sollte, um mein klimatisches Wohlbefinden zu maximieren. Das Ergebnis könnte z. B. sein: 10 Minuten draußen schwitzen, dann Spezi trinken, danach Klimaanlage im Auto. Klingt banal? Vielleicht. Aber: Die KI kennt die Weltregeln nicht. Sie muss sie lernen – durch mein Feedback.
Mein Verhaltensmodell (als KI-gesteuerter Befehlsempfänger). Ablauf – jede Minute: Ich bekomme optional einen Befehl von der KI: „DRAUSSEN“, „SPEZI“, „KLIMA_AUTO“. Ich führe ihn aus – ohne Diskussion. Ich gebe sofort Punkte-Feedback, je nach meinem Zustand: −10 Punkte für Hitze pro min, KLIMA_AUTO wirkt nur alle 5 Minuten → +20 Punkte pro Intervall
Sonderregeln: SPEZI wirkt nur, wenn ich zuvor 10 Minuten draußen war; bringt +200 Punkte – aber ich verliere vorher 10×−10 Punkte, Wenn ich kein Spezi trinke nach 60 min dann „verdurstet“ → −10.000 Punkte.
Wer steuert hier wen? Ich bin zwar der Handelnde – aber die KI entscheidet, was ich tue. Gleichzeitig hängt ihr Lernfortschritt vollständig von meinem Feedback ab. Die KI testet verschiedene Szenarien, bewertet den Gesamtpunktestand, und entdeckt dabei das optimale Verhalten:
10 Minuten draußen → 1× Spezi → KlimaAuto-Fahren bis 1 Stunde abgelaufen. Dann wiederholen jede Stunde. So verdurste ich nicht, bin die minimal nötige Zeit draußen und fahre schön temperiert im Auto.
Rein technisch betrachtet ist das effizient. Ob das ökologisch vertretbar ist, steht auf einem anderen Blatt – aber genau darum geht’s: KI bewertet nur, was du ihr als Ziel gibst. Nicht mehr. Die KI denkt nichts, glaubt nichts – sie optimiert stumpf das Feedback, das ich ihr gebe. Und das funktioniert – wenn man Ziel, Regeln und Bewertung klar definiert. Daher: Weniger Ehrfurcht. Aber: Können wir Ziele genau an die KI übergeben, nicht dass sie sonderbare Subziele „erfindet“, etwa: ich sorge dafür daß die Welt mit Rechenzentren überzogen wird, dann hab ich mehr Rechen-Power für mein übergeordnetes Ziel. Oder: die KI lernt den Menschen zu täuschen für ein höheres Ziel. Diese Gefahrenbeurteilung ist was für KI-Experten.
Immer wieder faszinierend zu sehen, in welch absurde Verhaltensweise Menschen mit KI abdriften können. Ich persönlich lehne jegliche Form von ChatGBT oder KI-Gespräche ab! Ich quatsche weder mit Robotern noch lasse ich mir von denen irgendetwas erzählen, was ich dann in mein Leben einbaue! Komme ich auf eine Verkaufseite im Netz mit einem Chat-Roboter als Berater, schalte ich sofort ab!
Wundert mich jetzt keine Minute lang – genau das war zu erwarten. Natürlich können diese Effekte dann auch „genutzt“ werden, um den Zielpersonen einen moralisch-ethischen Bypass zu legen, der sie ins Nirwana führt… Selbstzerstörung auf allen Ebenen. Und da lacht noch einer über die Offenbarung der Bibel?
Wer sie kennt und richtig versteht, dem ist das Lachen längst vergangen… es gibt „das“ Böse und es ist auf allen Linien aktiv. Ob es genügend Gutes gibt, das dem entgegentritt, wird man sehen. Es liegt an uns.
Ich beschäftige mich selbst mit „selbstlernenden“ Algorithmen und kenne daher auch dessen Grenzen. Seit der Gründung der kath. Kirche, wird den Menschen eingeredet, wie minderwertig sie doch seien, nur wegen Macht und Geld. Daran hat sich bis heute nichts geändert. Auch die Entwicklung von „KI“ gehört zu diesen Größenwahn, alles und jeden kontrollieren und verändern zu wollen aus dem falschen Grund heraus, die Menschheit zu „verbessern“.
Ich selbst glaube an kein allmächtiges Wesen, sondern das göttliche ist die Veränderung und das Veränderliche, das Erschaffen, aber NICHT zu beherrschen. Und da liegt ja auch der Kern all unserer Probleme.
Die „KI“ ist nur ein weiterer Schritt, dabei bietet diese, wenn man sie nur zur Wissenssammlung und nicht zur Analyse einsetzt, enormes Potential. Ein Computer kann nichts analysieren, was der Programmierer selbst nicht versteht, egal wie viel „Neuronen“ man diesen verpasst, das habe auch ich in Experimenten feststellen müssen. Aber die Ideologie der Menschen verursacht ein Desaster, wie bei jeder Technologie und lässt, bewußt oder unbewußt, die eigene Ideologie des/der Programmierer(s) in die Entwicklung einfließen.
UNd dann kommt eben genau dies heraus, tolle Technologie, die einmal wieder durch menschliche Ideologie(n) pervertiert und verdreht wird. Denn eines sollte auch klar sein, psychotische Menschen erschaffen psychotische Dinge.
Eine kranke Gesellschaft kann also auch nur kranke KI’s erzeugen.
Das ist kein Voranschreiten (Vorschritt) der Möglichkeiten, das ist Fortschritt – fort vom Ort des Natürlichen. Meines Erachtens ist das gewollt, bewusst oder unbewusst.