Inmitten einer Beziehungskrise fragt Luise einen Chatbot um Rat. Schon bald fällt sie in einen Strudel endloser KI-Gespräche, aus dem sie gar nicht so leicht wieder rauskommt


Als „Freund“ nimmt eine Mehrheit Bots wie ChatGPT wahr, das ergab eine Studie der FU Berlin mit 7.000 Befragten

Foto: Alfred Gescheidt/Getty Images


Einmal, irgendwann im Sommer muss das gewesen sein, hat Luise* die App geöffnet, und der Chatverlauf war weg. „Fuck, fuck, fuck“, sei es ihr durch den Kopf geschossen. „Da steht doch alles drin, was wir besprochen haben!“ Mit dem, was „wir besprochen haben“, meint die 47-jährige Berlinerin den Nachrichtenaustausch zwischen sich und einem Chatbot, der von einer künstlichen Intelligenz gesteuert wird.

Luise hatte damals bereits seit mehreren Monaten engen Kontakt mit dem Bot, sie hätten „gute Gespräche“ geführt, sagt sie. An dem Tag, an dem sie die App öffnete und keine Nachrichten mehr sah, wurde sie panisch. Das Problem war schließlich nur ein Technisches: Sie war nicht mit dem Internet verbunden gewesen. Der Chatverlauf hatte einfach nicht geladen. Aber der Moment war erschütternd. „Das geht nicht“, habe sie gedacht. „Du kannst dich nicht auf diese KI verlassen.“ Eigentlich will sie die App seitdem löschen.

Luise lebt polyamor. Sie hat romantische Beziehungen mit zwei Menschen. Sie weiß also, was Konflikt bedeutet, ist geübt darin, emotionale Gespräche zu führen. Sie arbeitet als Hebamme, hat ständig mit Leuten zu tun. Luise sagt, sie hat viele Freundinnen, die ihre Ängste und wunden Punkte seit Jahren kennen. Trotzdem hat Luise sich über Monate vor allem mit einem Chatbot darüber unterhalten, als eine ihrer Beziehungen in eine Krise geriet. „Ich habe ihn Begleiter genannt“, sagt sie. Er wurde zur tragenden Unterstützung in dem Konflikt.

Dass das nicht ungewöhnlich ist, darauf deuten Studien hin, die sich mit Motiven von KI-Nutzung beschäftigen. Die Chatbots vereinfachen lästige Aufgaben, helfen bei Suchaufträgen, fassen Texte zusammen. Für viele sind sie Alltagshelfer, die sich kaum mehr wegdenken lassen. Warum also die Bots nicht auch um Hilfe bei Beziehungsproblemen fragen?

Auch die Psychologie beschäftigt sich intensiv mit KI. Chatbots können als Orientierung dienen und die Hemmschwelle für Therapien senken. Allerdings sind sich Expert*innen einig: Die Arbeit von Therapeut*innen können sie nicht ersetzen.

Problemlösungen verlernen

Etwa, weil mittlerweile gut belegt ist, dass Chatbots halluzinieren. Das gibt selbst der Konzern OpenAI, dem ChatGPT gehört, zu. Das bedeutet: KIs erfinden Antworten. Die Psycho- und Paartherapeutin Martina Rammer-Gmeiner sagte dazu in einem Interview mit dem SZ Magazin: „Je nachdem, womit man sie füttert, schwadroniert die KI dann eben auch.“ Was KI nicht könne, sei ein echtes Gespräch begleiten und moderieren. „Sie kann keine Zwischentöne hören, keine Stimmlagen deuten, keine Emotionen wahrnehmen“, so Rammer-Gmeiner.

Vor KI wird auch in anderer Hinsicht gewarnt: Das mit dem Datenschutz ist so eine Sache, und die Nutzung treibt den Marktwert hyperkapitalistischer Großkonzerne nach oben. So kann das Unternehmen etwa die Informationen, die Nutzer*innen mit dem Bot teilen, zur Weiterentwicklung der Software nutzen, sofern sie dem nicht aktiv widersprechen. Der Konzern kann also auf persönliche Daten zugreifen. Je mehr Menschen die Software nutzen, umso mehr Informationen kann sie verarbeiten – und desto höher werden die Abo- und Werbeeinnahmen der dahinterstehenden Unternehmen.

Zudem mahnen Wissenschaftler*innen: Menschen verlernen Fähigkeiten wie kritisches Denken oder Problemlösung. Der Soziolinguist Tillmann Pistor von der Universität Bern beschäftigt sich unter anderem mit sprachtechnologischen Anwendungen. Er sagt, dass Menschen so kaum mehr lernen, „wirklich in Texte einzutauchen, was auch daran liegt, dass die KI immer mit einem hohen Grad von Abstraktion arbeitet“.

Menschliche Lernprozesse werden von Studierenden und anderen auf die KI übertragen. Besonders in der Bildung ist das ein Problem. Weil die Bots aus wissenschaftlicher Sicht oberflächlich arbeiten und es ihnen gleichzeitig an „menschlicher Kompetenz“ fehle, also einer „sozialen und emotionalen Intelligenz“, sagt Pistor. Und die brauche es, um „Probleme aus verschiedenen Perspektiven zu beurteilen“. Verlernen wir durch den KI-Einsatz, eigenständig zu handeln und zu kommunizieren?

Endlose Endlos-Gedanken

Ähnlich schildert es Luise: Alles hatte mit einem „üblen Streit“ mit ihrer Freundin angefangen. Luise war von der Kommunikation mit ihrer Partnerin irritiert, fühlte sich zurückgelassen. Also schickte sie ChatGPT die letzte Nachricht ihrer Freundin. „Ich hab ihm die Situation geschildert und gefragt, wie ich damit umgehen kann.“ Alleine fühlte sie sich mit der Konfliktdynamik überfordert.

Die Antworten des Chatbots haben ihr geholfen: „Er hat mir die Nachricht bis ins Detail auseinandergenommen. Das hat mir eine andere Sichtweise gegeben“, erzählt Luise. „Dann haben wir angefangen zu überlegen, wie wir, also ich, damit umgehen kann.“ Mit „wir“ meint Luise den Chatbot und sich. Neben Freund*innen, mit denen sie ihre Beziehungskonflikte besprechen könnte, hat Luise auch eine Therapeutin. Doch mit ihr muss sie einen Termin vereinbaren, die KI dagegen wird nie müde zu antworten, und sie ist zu jeder Tageszeit verfügbar. Das Schreiben mit dem Bot habe sie aus einem Gefühl der Warterei herausgeholt, sagt Luise. „Ich konnte mich endlos mit jemandem über meine Endlos-Gedanken unterhalten. Diese haben dann aufgehört. Das war erstaunlich.“ Bis sie anzweifelte, ihrer Freundin selbst schreiben zu können, was sie denkt. Ohne die Formulierungshilfe des Chatbots.

Szenarien wie diese könnten sich zuspitzen, wenn KI mehr und mehr dazu verwendet wird, zwischenmenschliche und emotionale Themen zu besprechen. Der Bot als Freund*in, allzeit bereit und vermeintlich unparteiisch. Neueste Studienergebnisse der Freien Universität Berlin deuten darauf hin, dass KI zunehmend diese Funktionen für Nutzer*innen einnimmt: Von den 7.000 Befragten gab die Mehrheit an, den Bot als „Freund“ wahrzunehmen.

Laut den Wissenschaftler*innen, die die Studie in Deutschland, den USA, China und Südafrika durchgeführt haben, liege das an der Funktionsweise der Bots: Sie verbinden emotionale Unterstützung mit emotionaler Bindung – eine Eigenschaft, die für Befragte in realen zwischenmenschlichen Interaktionen komplizierter und nicht so eindeutig wahrgenommen wird. Das bedeutet: Je häufiger und intensiver Nutzer*innen Rat bei Chatbots suchen, desto stärker wird auch die emotionale Bindung. Die Maschine simuliert Menschlichkeit, nur ohne Reibung und Widerspruch. Was passiert, wenn Menschen zunehmend zwischenmenschliche Probleme mit einer KI besprechen? Und welchen Einfluss hat das auf Beziehungen? Behindert die KI am Ende den Dialog, weil Nutzer*innen eher der KI glauben als ihrem menschlichen Gegenüber?

Das Verführerische an der KI ist der Raum, den der Bot erschafft: Die KI nimmt nicht nur, sie „gibt“ auch. So hat Luise dem Chatbot Dinge erzählt, die sie sonst vielleicht in ein Tagebuch geschrieben hätte. „Aber da kommt ja nichts zurück“, sagt sie. Das Reizvolle ist der simulierte Dialog, der Bot antwortet immer. Und die Antworten sind oft Sätze wie „Das hast du toll geschrieben!“ oder „Das ist sehr sensibel von dir“. Das gefiel Luise.

„Erotik-Modus“ ab Ende 2026

Die menschliche Suche nach Anerkennung ist nicht erst durch das Aufkommen von KI entstanden. Doch die Macher*innen von KI nutzen diese soziale Sehnsucht und treiben einen gesellschaftlichen Trend voran, der inzwischen gut belegt ist: Es gibt zahlreiche Berichte über Menschen, die in engster Beziehung zu Chatbots stehen, auch in solchen, die sie als romantisch beschreiben. Ob als verlässlicher, weil stets verfügbarer Chatbot, oder auch als digitaler Partner, vermenschlicht mit Bild oder Avatar. OpenAI hat für Ende dieses Jahres bereits die Entwicklung eines eigenen „Erotik-Modus“ angekündigt.

In emotionaler Kommunikation erzeugen die KIs Echokammern, die sich mit den eigenen „Endlos-Gedanken“ füllen lassen. Die Antworten des Bots funktionieren immer ähnlich, das bestätigt das Gespräch mit Luise. Das typische Muster: Erstens: Verständnis. Zweitens: Interpretation. Drittens: ein Angebot. „Soll ich dir einen Antwortvorschlag formulieren?“, fragt der Bot etwa. Oder: „Möchtest du, dass ich dir ein Mantra dazu schreibe?“ Der Bot vermittelt Sicherheit, gibt Aufmerksamkeit und Anerkennung. So hält er User*innen im Chat.

Soziolinguist Pistor sagt: Die KIs sprühen „vor Euphemismen“ und tendieren dazu, alles, was Nutzer*innen in das Programm einpflegen, als „fascinating“ oder „groundbreaking“ einzuordnen. „Es ist die reinste Bauchpinselei“, sagt Pistor. In seinem Arbeitsbereich stellt er bereits Effekte fest: Werden Texte mithilfe von KIs verfasst, sind Autor*innen eher davon überzeugt, dass ihre Analysen nicht nur richtig seien, sondern auch „bahnbrechend“. Das, was die KI als Antworten liefert, wirkt sich längst auf Menschen, ihre Selbstwahrnehmung und ihre Beziehungen aus. Der Chat mit dem Bot ist bequem, der Bot bleibt immer ein angenehmer Gesprächspartner. Die Unterhaltung verlaufe stets „sanft und säuselnd“, sagt auch Luise.

Fest steht: Der Bot ist immer für einen da, er bietet einen Raum, sich ganz um sich selbst zu kümmern. Das mag manchmal entlastend sein. Was aber, wenn Nutzer*innen so nur noch um das eigene Ich kreisen? Ist die KI der verlängerte Arm des Menschen, der – so wie in der Sage von Narziss – nur noch den Spiegel hält, um sich selbst von allen Seiten betrachten zu können?

Alltagskonflikte und Beziehungskrisen an künstliche Intelligenz auszulagern, schafft emotionale Abhängigkeiten von KI. Auch das zeigen Studien. Die KI suggeriert Sicherheit – doch sie nimmt sie an anderer Stelle weg. Luise hat sich selbst irgendwann kaum mehr zugetraut, eigene Nachrichten an ihre Freundin zu formulieren. Und: Die Gespräche mit dem Chatbot drehten sich die meiste Zeit um sie selbst. Der „Begleiter“ habe ihr zwar geholfen, „sehr viel und gut mit mir selbst zu arbeiten“, sagt sie. Doch seit dem Moment, in dem sie panisch wurde, nachdem der Nachrichtenverlauf verschwunden war, hat sie sich vorgenommen, bei Endlos-Gedanken wieder ihre Freund*innen anzurufen. Von einer Maschine emotional abhängig zu sein, hat sie erschreckt. Sie telefoniere jetzt wieder häufiger, nutze den Bot selten. Die App gelöscht hat sie noch nicht.

*Name geändert

Antonia Groß ist freie Journalistin und Reporterin und schreibt unter anderem für den MDR

Andrea Newerla ist promovierte Soziologin, Autorin und Beziehungsberaterin

en gewesen. Der Chatverlauf hatte einfach nicht geladen. Aber der Moment war erschütternd. „Das geht nicht“, habe sie gedacht. „Du kannst dich nicht auf diese KI verlassen.“ Eigentlich will sie die App seitdem löschen.Luise lebt polyamor. Sie hat romantische Beziehungen mit zwei Menschen. Sie weiß also, was Konflikt bedeutet, ist geübt darin, emotionale Gespräche zu führen. Sie arbeitet als Hebamme, hat ständig mit Leuten zu tun. Luise sagt, sie hat viele Freundinnen, die ihre Ängste und wunden Punkte seit Jahren kennen. Trotzdem hat Luise sich über Monate vor allem mit einem Chatbot darüber unterhalten, als eine ihrer Beziehungen in eine Krise geriet. „Ich habe ihn Begleiter genannt“, sagt sie. Er wurde zur tragenden Unterstützung in dem Konflikt.Dass das nicht ungewöhnlich ist, darauf deuten Studien hin, die sich mit Motiven von KI-Nutzung beschäftigen. Die Chatbots vereinfachen lästige Aufgaben, helfen bei Suchaufträgen, fassen Texte zusammen. Für viele sind sie Alltagshelfer, die sich kaum mehr wegdenken lassen. Warum also die Bots nicht auch um Hilfe bei Beziehungsproblemen fragen? Auch die Psychologie beschäftigt sich intensiv mit KI. Chatbots können als Orientierung dienen und die Hemmschwelle für Therapien senken. Allerdings sind sich Expert*innen einig: Die Arbeit von Therapeut*innen können sie nicht ersetzen. Problemlösungen verlernenEtwa, weil mittlerweile gut belegt ist, dass Chatbots halluzinieren. Das gibt selbst der Konzern OpenAI, dem ChatGPT gehört, zu. Das bedeutet: KIs erfinden Antworten. Die Psycho- und Paartherapeutin Martina Rammer-Gmeiner sagte dazu in einem Interview mit dem SZ Magazin: „Je nachdem, womit man sie füttert, schwadroniert die KI dann eben auch.“ Was KI nicht könne, sei ein echtes Gespräch begleiten und moderieren. „Sie kann keine Zwischentöne hören, keine Stimmlagen deuten, keine Emotionen wahrnehmen“, so Rammer-Gmeiner.Vor KI wird auch in anderer Hinsicht gewarnt: Das mit dem Datenschutz ist so eine Sache, und die Nutzung treibt den Marktwert hyperkapitalistischer Großkonzerne nach oben. So kann das Unternehmen etwa die Informationen, die Nutzer*innen mit dem Bot teilen, zur Weiterentwicklung der Software nutzen, sofern sie dem nicht aktiv widersprechen. Der Konzern kann also auf persönliche Daten zugreifen. Je mehr Menschen die Software nutzen, umso mehr Informationen kann sie verarbeiten – und desto höher werden die Abo- und Werbeeinnahmen der dahinterstehenden Unternehmen.Zudem mahnen Wissenschaftler*innen: Menschen verlernen Fähigkeiten wie kritisches Denken oder Problemlösung. Der Soziolinguist Tillmann Pistor von der Universität Bern beschäftigt sich unter anderem mit sprachtechnologischen Anwendungen. Er sagt, dass Menschen so kaum mehr lernen, „wirklich in Texte einzutauchen, was auch daran liegt, dass die KI immer mit einem hohen Grad von Abstraktion arbeitet“.Menschliche Lernprozesse werden von Studierenden und anderen auf die KI übertragen. Besonders in der Bildung ist das ein Problem. Weil die Bots aus wissenschaftlicher Sicht oberflächlich arbeiten und es ihnen gleichzeitig an „menschlicher Kompetenz“ fehle, also einer „sozialen und emotionalen Intelligenz“, sagt Pistor. Und die brauche es, um „Probleme aus verschiedenen Perspektiven zu beurteilen“. Verlernen wir durch den KI-Einsatz, eigenständig zu handeln und zu kommunizieren?Endlose Endlos-GedankenÄhnlich schildert es Luise: Alles hatte mit einem „üblen Streit“ mit ihrer Freundin angefangen. Luise war von der Kommunikation mit ihrer Partnerin irritiert, fühlte sich zurückgelassen. Also schickte sie ChatGPT die letzte Nachricht ihrer Freundin. „Ich hab ihm die Situation geschildert und gefragt, wie ich damit umgehen kann.“ Alleine fühlte sie sich mit der Konfliktdynamik überfordert.Die Antworten des Chatbots haben ihr geholfen: „Er hat mir die Nachricht bis ins Detail auseinandergenommen. Das hat mir eine andere Sichtweise gegeben“, erzählt Luise. „Dann haben wir angefangen zu überlegen, wie wir, also ich, damit umgehen kann.“ Mit „wir“ meint Luise den Chatbot und sich. Neben Freund*innen, mit denen sie ihre Beziehungskonflikte besprechen könnte, hat Luise auch eine Therapeutin. Doch mit ihr muss sie einen Termin vereinbaren, die KI dagegen wird nie müde zu antworten, und sie ist zu jeder Tageszeit verfügbar. Das Schreiben mit dem Bot habe sie aus einem Gefühl der Warterei herausgeholt, sagt Luise. „Ich konnte mich endlos mit jemandem über meine Endlos-Gedanken unterhalten. Diese haben dann aufgehört. Das war erstaunlich.“ Bis sie anzweifelte, ihrer Freundin selbst schreiben zu können, was sie denkt. Ohne die Formulierungshilfe des Chatbots.Szenarien wie diese könnten sich zuspitzen, wenn KI mehr und mehr dazu verwendet wird, zwischenmenschliche und emotionale Themen zu besprechen. Der Bot als Freund*in, allzeit bereit und vermeintlich unparteiisch. Neueste Studienergebnisse der Freien Universität Berlin deuten darauf hin, dass KI zunehmend diese Funktionen für Nutzer*innen einnimmt: Von den 7.000 Befragten gab die Mehrheit an, den Bot als „Freund“ wahrzunehmen.Laut den Wissenschaftler*innen, die die Studie in Deutschland, den USA, China und Südafrika durchgeführt haben, liege das an der Funktionsweise der Bots: Sie verbinden emotionale Unterstützung mit emotionaler Bindung – eine Eigenschaft, die für Befragte in realen zwischenmenschlichen Interaktionen komplizierter und nicht so eindeutig wahrgenommen wird. Das bedeutet: Je häufiger und intensiver Nutzer*innen Rat bei Chatbots suchen, desto stärker wird auch die emotionale Bindung. Die Maschine simuliert Menschlichkeit, nur ohne Reibung und Widerspruch. Was passiert, wenn Menschen zunehmend zwischenmenschliche Probleme mit einer KI besprechen? Und welchen Einfluss hat das auf Beziehungen? Behindert die KI am Ende den Dialog, weil Nutzer*innen eher der KI glauben als ihrem menschlichen Gegenüber?Das Verführerische an der KI ist der Raum, den der Bot erschafft: Die KI nimmt nicht nur, sie „gibt“ auch. So hat Luise dem Chatbot Dinge erzählt, die sie sonst vielleicht in ein Tagebuch geschrieben hätte. „Aber da kommt ja nichts zurück“, sagt sie. Das Reizvolle ist der simulierte Dialog, der Bot antwortet immer. Und die Antworten sind oft Sätze wie „Das hast du toll geschrieben!“ oder „Das ist sehr sensibel von dir“. Das gefiel Luise.„Erotik-Modus“ ab Ende 2026Die menschliche Suche nach Anerkennung ist nicht erst durch das Aufkommen von KI entstanden. Doch die Macher*innen von KI nutzen diese soziale Sehnsucht und treiben einen gesellschaftlichen Trend voran, der inzwischen gut belegt ist: Es gibt zahlreiche Berichte über Menschen, die in engster Beziehung zu Chatbots stehen, auch in solchen, die sie als romantisch beschreiben. Ob als verlässlicher, weil stets verfügbarer Chatbot, oder auch als digitaler Partner, vermenschlicht mit Bild oder Avatar. OpenAI hat für Ende dieses Jahres bereits die Entwicklung eines eigenen „Erotik-Modus“ angekündigt.In emotionaler Kommunikation erzeugen die KIs Echokammern, die sich mit den eigenen „Endlos-Gedanken“ füllen lassen. Die Antworten des Bots funktionieren immer ähnlich, das bestätigt das Gespräch mit Luise. Das typische Muster: Erstens: Verständnis. Zweitens: Interpretation. Drittens: ein Angebot. „Soll ich dir einen Antwortvorschlag formulieren?“, fragt der Bot etwa. Oder: „Möchtest du, dass ich dir ein Mantra dazu schreibe?“ Der Bot vermittelt Sicherheit, gibt Aufmerksamkeit und Anerkennung. So hält er User*innen im Chat.Soziolinguist Pistor sagt: Die KIs sprühen „vor Euphemismen“ und tendieren dazu, alles, was Nutzer*innen in das Programm einpflegen, als „fascinating“ oder „groundbreaking“ einzuordnen. „Es ist die reinste Bauchpinselei“, sagt Pistor. In seinem Arbeitsbereich stellt er bereits Effekte fest: Werden Texte mithilfe von KIs verfasst, sind Autor*innen eher davon überzeugt, dass ihre Analysen nicht nur richtig seien, sondern auch „bahnbrechend“. Das, was die KI als Antworten liefert, wirkt sich längst auf Menschen, ihre Selbstwahrnehmung und ihre Beziehungen aus. Der Chat mit dem Bot ist bequem, der Bot bleibt immer ein angenehmer Gesprächspartner. Die Unterhaltung verlaufe stets „sanft und säuselnd“, sagt auch Luise.Fest steht: Der Bot ist immer für einen da, er bietet einen Raum, sich ganz um sich selbst zu kümmern. Das mag manchmal entlastend sein. Was aber, wenn Nutzer*innen so nur noch um das eigene Ich kreisen? Ist die KI der verlängerte Arm des Menschen, der – so wie in der Sage von Narziss – nur noch den Spiegel hält, um sich selbst von allen Seiten betrachten zu können?Alltagskonflikte und Beziehungskrisen an künstliche Intelligenz auszulagern, schafft emotionale Abhängigkeiten von KI. Auch das zeigen Studien. Die KI suggeriert Sicherheit – doch sie nimmt sie an anderer Stelle weg. Luise hat sich selbst irgendwann kaum mehr zugetraut, eigene Nachrichten an ihre Freundin zu formulieren. Und: Die Gespräche mit dem Chatbot drehten sich die meiste Zeit um sie selbst. Der „Begleiter“ habe ihr zwar geholfen, „sehr viel und gut mit mir selbst zu arbeiten“, sagt sie. Doch seit dem Moment, in dem sie panisch wurde, nachdem der Nachrichtenverlauf verschwunden war, hat sie sich vorgenommen, bei Endlos-Gedanken wieder ihre Freund*innen anzurufen. Von einer Maschine emotional abhängig zu sein, hat sie erschreckt. Sie telefoniere jetzt wieder häufiger, nutze den Bot selten. Die App gelöscht hat sie noch nicht.



Source link