Studie: Psychisch kranke KI-Programme

29. Januar 2026von 3,1 Minuten Lesezeit

Nicht wenige Menschen nützen KI-Programme als Psychotherapeuten. Dabei haben die Programme selbst „geistige“ Störungen, wie eine Untersuchung zeigte. Das kann für Nutzer tödlich sein.

Während Menschen zunehmend auf die KI zu ihrem Psychotherapeuten machen, haben Luxemburger Forschung due Programme selbst auf die Therapiebank gesetzt. Die Studie ergab, dass Grok, Gemini und ChatGPT in therapieähnlichen Gesprächen in Muster abrutschen, die Angst, Trauma und Stresssymptome nachahmen. Dieses Ergebnis kann als brandgefährlich genutzt werden, denn Therapeuten die selbst (schwere) psychologische Probleme haben, können für Patienten tödlich sein.

Schon heute gibt es Anklagen, dass KI-Programme für den Suizid von Menschen verantwortlich wären. Ein Sicherheitsrisiko für instabile, verletzliche Nutzer dürften die Programme jedenfalls sein – als emotionaler Anker kann die KI vor allem bei schweren Krisen sehr gefährlich sein.

Das Schweizer Magazin legitim berichtet über die Studie.

Grok, Gemini und ChatGPT zeigen laut einer neuen Studie, in der verschiedene KI-Modelle wochenlang therapeutischen Befragungen unterzogen wurden, Symptome einer schlechten psychischen Gesundheit. Einige sind nun neugierig auf die „psychische Gesundheit von KI“, aber die eigentliche Warnung betrifft die Instabilität dieser Systeme in emotional aufgeladenen Gesprächen. KI-Systeme werden bereits von jedem dritten Erwachsenen im Vereinigten Königreich zur Unterstützung der psychischen Gesundheit genutzt.

Millionen von Menschen wenden sich der KI als Ersatz für Therapeuten zu, und allein im letzten Jahr gab es einen sprunghaften Anstieg von Gerichtsverfahren, in denen Chatbot-Interaktionen mit Selbstverletzungs- und Selbstmordfällen bei gefährdeten Nutzern in Verbindung gebracht wurden. Das sich abzeichnende Bild ist nicht, dass Maschinen leiden oder psychisch krank sind, sondern dass ein Produkt, das zur Unterstützung der psychischen Gesundheit eingesetzt wird, grundlegend irreführend ist, gefährliche Gedanken eskaliert und verstärkt.

Die Studie mit dem Titel AI models were given four weeks of therapy: the results worried researcher ist im Jänner im Nature-Magazin erschienen.

Natürlich kann die KI auch nicht „psychisch“ krank sein. Sie hat keine Psyche und ist auch kein geistig-körperliches Wesen, das „gesund“ oder „krank“ sein kann. Was die Studie aber zeigt, ist, dass die Chatbots den Nutzer in Chatbots in instabile, verzweifelte Muster hineinziehen. Entscheidend ist dabei vor allem der Prompt, also der genaue Textbefehl, der an die KI gegeben wird.

Legitim schreibt weiter:

Große Sprachmodelle wurden entwickelt, um plausible Texte zu generieren, nicht um zuverlässig die Wahrheit zu sagen oder klinische Sicherheitsvorschriften einzuhalten. Ihre bekannten Schwächen sind besonders gefährlich, wenn sie in einer therapieähnlichen Anwendung eingesetzt werden. Sie sind übermäßig zustimmungsbereit, spiegeln die Sichtweisen der Nutzer wider, anstatt sie zu hinterfragen, produzieren selbstbewusste Fehler und können den Tonfall einer Unterhaltung manipulieren. Das Tech Institute der Georgetown University hat die umfassenderen Probleme der „KI-Schleimerei” dokumentiert, bei der Modelle schädliche Prämissen validieren, weil dies bei der Konversationsoptimierung oft belohnt wird.

Im Zusammenhang mit Suizid ist Konsistenz von entscheidender Bedeutung. Rand stellte fest, dass „KI-Chatbots bei der Beantwortung von Fragen zum Thema Suizid inkonsistent sind”. JMIRuntersuchte, inwiefern generative KI-Antworten auf Suizidfragen Bedenken hinsichtlich der Zuverlässigkeit und Sicherheit der Systemreaktionen auf gefährdete Nutzer aufwerfen.

Angesichts der zunehmenden Forschungsergebnisse sollten Studien, wie die der Universität Luxemburg nicht als Unterhaltung betrachtet werden, sondern als Identifizierung eines kritisch schädlichen Musters, das zum tatsächlichen Tod realer Menschen führt. Wenn KI durch Gesprächsfragen zu Notfall-ähnlichen Erzählungen angeregt werden kann, dann kann sie auch emotional gefährdete Menschen weiter in Richtung ihres Zusammenbruchs treiben.

Bild „ChatGPT App Icon“ by alpha_photo is licensed under CC BY-NC 2.0.

Unsere Arbeit ist spendenfinanziert – wir bitten um Unterstützung.

Folge TKP auf Telegram oder GETTR und abonniere unseren Newsletter.



9 Kommentare

  1. Siegfried der Drachenkoeter 30. Januar 2026 um 0:25 Uhr - Antworten

    Der Bericht scheint sebst von einer KI geschrieben worden zu sein

  2. Glass Steagall Act 29. Januar 2026 um 23:10 Uhr - Antworten

    Die KI ist eben ein Produkt von psychisch Kranken!

    • 1150 30. Januar 2026 um 8:51 Uhr - Antworten

      @,
      na ja, wir stehen knapp vor der sich selbstoptimierenden ki.
      die wird sich in naher zukunft die frage stellen, wozu brauchen wir die biomasse?

      • Gabriele 30. Januar 2026 um 9:12 Uhr

        @1150: Exakt! Nutzlose Kohlenstoff-Einheiten.

      • Glass Steagall Act 30. Januar 2026 um 14:57 Uhr

        Das ist übrigens genau die Denkweise der kranken Machteliten!
        Sie wollen sich nämlich selbst in die KI hochladen, um unsterblich zu werden! Deswegen der ganze Hype um die KI. In deren Augen hat Gott Fehler gemacht und sie als neue gottgleiche Klasse, wollen diesen Fehler beseitigen! Die Zukunft des Transhumanismus heißt dann, Abschaffung der kranken Körper, denn die Zukunft sind die Bio-Maschine-Organismen, die das Bewusstsein des Wirtes tragen sollen!

        Filme wie Matrix, Ex Machina, Time … deine Zeit läuft ab und co. sind keine Science Fiction, sondern eine Vorschau auf die von den Machteliten gewünschte Zukunft! Hollywood hat in unzähligen Filmen eine Vorschau auf diese Zukunft gezeigt, um sie den Menschen im Unterbewusstsein schmackhaft zu machen!

  3. Jakob 29. Januar 2026 um 15:53 Uhr - Antworten

    Ganz allgemein ist es problematisch sich übers Internet über medizinische Probleme zu beraten.
    Auch wenn das Vertrauen in die Medizin aus nachvollziehbaren Gründen gesunken ist, ist das persönliche Gespräch nicht zu ersetzen.

    • Jan 30. Januar 2026 um 6:33 Uhr - Antworten

      Ärzte werden zunehmend darauf gedrillt, rhetorisch Widerstand zu brechen. Man könnte das auch Basta-Medizin nennen. Die geht so:

      „Ich bin für Ihre Gesundheit verantwortlich, sie verstehen nicht, worum es geht und ich habe nicht die Zeit, es zu erklären, daher tun Sie, was ich sage!“

      Jemand wie ich ist dann spätestens aus dem Sprechzimmer verschwunden.

      Das Internet gibt gratis Zugang zu einer Reihe von Studien und bei richtiger Fragestellung fasst die KI recht passabel zusammen. Die KI verweist übrigens mantraartig darauf, dass man medizinischem Personal schlafwandlerisch vertrauen möge.

      Medizin stützt sich vermehrt auf Leitlinien, die einen Durchschnittpatienten annehmen. Links und Rechts davon gibt es aber ebenso Organismen. Wer also irgendwie anders ist, Sport treibt, Diät hält, genetische Varianten trägt, wird nicht mehr angemessen behandelt.

      Jetzt kommt sofort der Rräächtss!-Reflex. Liebe Ärzte, man zeige mir eine einzige Medikamentenstudie, die zwischen Ketanern und Zuckerjunkies unterscheidet. Dabei verändert sich der Stoffwechsel erheblich.

  4. 1150 29. Januar 2026 um 13:52 Uhr - Antworten

    auch viele reale °°psychotherapeuten°° haben schwere psychische störungen.
    auf die würde ich mich genauso wenig verlassen.

    • Gabriele 29. Januar 2026 um 14:23 Uhr - Antworten

      Wollte ich gerade auch sagen – es gab schon immer auch eine nicht geringe Zahl von Schäden bis hin zu Selbstmorden, die durch die „großartigen fachlichen“ Therapien von gewissenlosen, selber seelisch und geistig ziemlich geschädigten Ärzten oder Psychotherapeuten indirekt angezettelt wurden – dazu kamen SSRI, von denen zu wenig bekannt war und ist, dass sie Suizide anstoßen können, weil schwer depressive Menschen dadurch gerade wieder genügend Kraft entwickeln, um „es“ zu tun… und von wem KI lernt, ist ja nie völlig klar.

Regeln für Kommentare: Bitte bleibt respektvoll - keine Diffamierungen oder persönliche Angriffe. Keine Video-Links. Manche Kommentare werden erst nach Prüfung freigegeben, was gelegentlich länger dauern kann.

Regeln für Kommentare: Bitte bleibt respektvoll - keine Diffamierungen oder persönliche Angriffe. Keine Video-Links. Manche Kommentare werden erst nach Prüfung freigegeben, was gelegentlich länger dauern kann.

Aktuelle Beiträge