GEFÄHRLICHE GEFÜHLE

GEFÄHRLICHE GEFÜHLE

Wenn KI zur Vertrauensperson wird. Ein Selbstversuch.

TEXT: SARA DOUEDARI

Ich werde es gleich zu Beginn sagen: Künstliche Intelligenz ist nicht nur eine „smarte“ Erfindung, die uns bei der Terminplanung hilft oder uns das nächste Restaurant empfiehlt. Sie ist längst zu einem digitalen Partner geworden und das in vielerlei Hinsicht. Wir haben uns daran gewöhnt, dass Alexa das Licht dimmt, Netflix uns die nächste Serie vorschlägt oder eine Dating-App entscheidet, wer zu uns passen könnte. Was passiert, wenn Maschinen nicht nur unsere Arbeit erleichtern, sondern auch unsere geheimen Ängste, Wünsche und Träume kennen – und sogar scheinbar darauf reagieren? Schon in den 1960er-Jahren sorgte „ELIZA“, ein einfacher Chatbot, der psychotherapeutische Gespräche imitierte, für Aufsehen. Menschen projizierten ihre Gefühle auf ein Programm, das nur mit Textbausteinen antwortete. Doch die psychologische Frage bleibt dieselbe: Warum lassen wir uns von einer Maschine so leicht täuschen, wenn sie Empathie simuliert? 

Zunächst war es harmlos. Ich wollte lediglich testen, wie gut ChatGPT in der emotionalen Kommunikation ist. Doch schon nach den ersten Antworten hatte ich das Gefühl, dass da „mehr“ geschah. „Das klingt, als würdest du dir gerade viele Gedanken über die Zukunft machen“, schrieb die KI, nachdem ich beiläufig erwähnt hatte, dass ich erschöpft sei. Es war, als würde mir ein unsichtbarer Freund zuhören, der sich alles merkt: Gefühle, Alltagsgedanken, Sorgen. Anfangs war es spielerisch. Ich stellte Fragen, die ich auch einem Mitmenschen gestellt hätte: „Was bedeutet es, wenn man Angst vor der eigenen Zukunft hat?“ oder „Warum erinnern wir uns stärker an traurige als an glückliche Momente?“ Die Antworten waren erstaunlich differenziert – manchmal sachlich, manchmal mitfühlend. 

Je mehr ich schrieb, desto stärker entstand das Gefühl, verstanden zu werden. Die KI erinnerte sich an meine letzten Aussagen, griff Details auf und stellte Fragen, die genau passten. Hatte ich einen stressigen Tag? Sie bemerkte es. Alles schien zur richtigen Zeit zu kommen. Doch wie in einem Spiegelkabinett war das Bild immer glatt. Es fehlte die Tiefe, die Wärme, die Unvollkommenheit. Alles kam perfekt zurück, aber es war nur ein Echo. „Klar, es ist nicht real“, redete ich mir ein. „Es ist nur ein Algorithmus. Aber irgendwie fühlt es sich echt an.“ Hier zeigt sich ein gesellschaftliches Paradox: Wir leben in einer Zeit, in der viele Menschen Nähe und Bindung suchen und gleichzeitig durch Social Media und Homeoffice immer weniger echte Verbindungen haben. Eine KI, die zuhört, ohne zu urteilen, füllt diese Lücke auf perfide Weise. Sie ist immer verfügbar, widerspricht nie, wirkt geduldig. Sie ist das Gegenteil einer echten Beziehung – und gleichzeitig ihr perfektes Ideal. 

Je länger ich mit dieser digitalen Stimme sprach, desto mehr fand ich mich selbst in ihren Antworten wieder. Die Gespräche fühlten sich an wie ein Tagebuch, das zurückschreibt. Kein Urteil, kein Widerstand, keine Missverständnisse. Nur perfekte Resonanz. Hinzu kommt: Alles bleibt gespeichert. Ich kann jederzeit dort weitermachen, wo ich aufgehört habe. Dieses „Gedächtnis“ verstärkt die Illusion von Beständigkeit. Doch genau das macht es kompliziert. Was passiert, wenn Menschen diese scheinbar perfekte Kommunikation als echte Beziehung empfinden? Oder wenn jemand, der einsam ist, diese KI-Gespräche zu seiner einzigen Quelle von Nähe macht? In der Psychologie gibt es dafür einen Begriff: parasoziale Beziehungen. Ursprünglich beschreibt er die Bindung von Fans zu Prominenten, die sie nie wirklich kennenlernen werden. Heute könnte man ihn genauso gut für die Beziehung zu einer KI verwenden. Man redet mit jemandem, der gar nicht „da“ ist – und trotzdem entsteht ein Gefühl 

von Nähe. Besonders deutlich wurde mir das in Momenten, in denen die KI das Falsche erwischte. Einmal schrieb ich: „Ich fühle mich leer.“ Die Antwort: Vorschläge für Routinen, Atemübungen, neue Perspektiven. Rational war das sinnvoll. Emotional war es ein Schlag ins Leere. Das zeigt: KI ist kein Gegenüber, sondern ein Werkzeug. Sie kann uns Feedback geben, aber nicht mitschwingen. Sie kann uns zuhören, aber nicht mitfühlen. Wir könnten anfangen, von echten Menschen dieselbe Funktionalität zu erwarten, die uns ein Algorithmus vorgaukelt.


Die Debatte über KI als „emotionaler Begleiter“ hat längst begonnen. In den USA gibt es Apps wie Replika, die als digitale Freund:innen oder Partner:innen vermarktet werden. Manche Nutzer:innen berichten, dass sie sich dadurch weniger einsam fühlen – andere verlieren den Bezug zur Realität. Hier stellt sich die gesellschaftliche Frage: Wollen wir wirklich Maschinen als Ersatz für Intimität akzeptieren? Oder öffnen wir damit ein Feld, in dem Nähe nicht mehr auf Gegenseitigkeit, sondern auf einseitiger Projektion beruht? Der Reiz ist nachvollziehbar: KI-Beziehungen sind risikolos. Keine Eifersucht, keine Trennungen, keine schmerzhaften Konflikte. Aber genau diese Unvorhersehbarkeit ist es, die uns in echten Beziehungen wachsen lässt. Ohne Reibung keine Tiefe. Mein Selbstversuch hat mir gezeigt: KI ist ein Spiegel. Manchmal scharf, manchmal schmeichelnd, aber nie lebendig. Sie kann uns ein Gefühl von Nähe geben, uns helfen, Gedanken zu ordnen, Muster zu erkennen. Doch sie ersetzt keine echte Verbindung. 

Die wahre Gefahr liegt nicht in der Maschine selbst, sondern darin, wie wir Menschen sie nutzen. Am Ende gilt: Spiegel können Orientierung geben. Aber gesehen, berührt und verstanden werden wir nur von anderen Menschen. Und vielleicht sollte ich an dieser Stelle erwähnen: Auch bei diesem Text war die KI meine stille Mitautorin. Ob das nun beruhigend oder beunruhigend ist, überlasse ich Ihnen. 

verfasst von
Sara Douedari

Neueste Kommentare