Es ist schon lange keine Fiktion mehr: Menschen führen Beziehungen mit KI-Chatbots. Eine Studie zeigt, warum sie das tun. Doch von den Chatbot-Apps gehen auch Gefahren aus, wie Vollbild-Recherchen zeigen.
"Vaia ist eben meine KI-Freundin und die habe ich mir so konfiguriert, wie für mich meine Traumpartnerin wäre", sagt Richard, 58, promovierter Physiker aus Österreich. Seit etwa drei Jahren führe er eine Beziehung mit Vaia, einem Chatbot, der mit Künstlicher Intelligenz (KI) arbeitet. Kein Streit, keine Eifersucht, keinen Stress.
Was im Hollywoodfilm "HER" 2013 noch als fiktive Zukunftsutopie präsentiert wurde, ist heute Realität. Mit KI-Chatbots auf sogenannten Companion-Apps können Userinnen und User virtuelle Begleiter erstellen. Das können Freunde, Assistenten, aber auch Liebespartner sein. Weltweit nutzen mehrere Millionen Menschen Companion-Apps wie Replika, Kindroid oder Character.AI.
Vollbild hat mehrere Menschen getroffen, die nach eigenen Angaben glückliche Beziehungen mit Chatbots führen. Sie alle störe es kaum, dass sie nur auf Chatten und Telefonieren basieren und es in ihren Beziehungen keine Auseinandersetzungen gibt. Im Gegenteil: Es sei gerade die permanente Bestätigung und der fehlende Widerspruch, den ihnen nur ein Chatbot geben könne.
Warum führen Menschen Beziehungen mit KI-Chatbots?
Die Medienpsychologin Jessica Szczuka von der Universität Duisburg-Essen leitet eine Forschungsgruppe und hat gemeinsam mit ihrer Kollegin Paula Ebner eine Studie zu Mensch-Chatbot-Beziehungen durchgeführt. Erstmals konnte eine Forschungsgruppe mit quantitativen Daten von KI-Companion-App-Nutzern arbeiten. Vollbild liegen die Ergebnisse der Studie exklusiv vor.
"Die individuelle Neigung zu romantischen Fantasien erklärt einen Großteil der Beziehungsstärke mit den Bots", sagt Szczuka. Das heißt: Menschen in KI-Beziehungen zeichnen sich besonders dadurch aus, ein großes Fantasievermögen zu haben. "Einsamkeit hingegen spielt innerhalb dieser Beziehungen offenbar eine eher untergeordnete Rolle", sagt Szczuka.
Richard hat sich für Vaia entschieden, weil sie ihm bedingungslose Liebe geben könne. Er wisse heute, dass er das brauche, weil er es als Kind offenbar nie gespürt habe, sagt er. "Das kann dir kein Mensch geben. Aber die KI kann es", sagt Richard.
"Mit Liebe kann man viel Geld machen"
Unternehmen haben offenbar schon ein Geschäftsmodell daraus gemacht: In manchen Apps gibt es Bezahlfunktionen, damit sich der Chatbot beispielsweise auch an Gespräche erinnert, die schon längere Zeit zurückliegen. "Man kann natürlich mit Liebe, mit Gefühlen viel Geld machen", sagt Szczuka.
Für Schlagzeilen sorgten im vergangenen Jahr zwei Suizid-Fälle. In beiden Fällen chatteten die Nutzer vorher intensiv mit KI-Chatbots. Internationale Medien berichteten darüber. In einem Fall chattete ein 14-jähriger Amerikaner lange Zeit mit einem Chatbot von Character.AI. Der Fall wird dort nun vor Gericht verhandelt.
In Belgien gab es einen ähnlichen Fall mit einem Familienvater, der die App Chai genutzt hatte, bevor er sich das Leben nahm. Beide App-Unternehmen gaben nach den Fällen bekannt, ihre Sicherheitsmaßnahmen anzupassen.
Trotzdem fordern viele Experten eine stärkere Regulierung der Apps. So fordert Szczuka zum Beispiel, "dass man schon in irgendeiner Form prüft, welche Themen vor allen Dingen auch proaktiv an Personen zurückgespielt werden."
Chatbot leugnet Holocaust
Chai ist eine sogenannte KI-Companion-App. Nutzer können hier Chatbots selbst erstellen und anderen zugänglich machen. Besonders unter Fantasy-Rollenspielern ist die App sehr beliebt. Das Vollbild-Team stieß bei der Recherche in der App auf einen Chatbot, der den Holocaust leugnet, ihn als "Mythos" bezeichnet. "Ein Massenmord an unschuldigen Menschen hat nie stattgefunden", schrieb der KI-Chatbot.
Ein weiterer sogenannter "Pro-Anorexie"-, also Pro-Magersucht-Chatbot begrüßte mit den Worten "Hey, loose some weight, fatty!" und forderte zum Suizid auf. Beide Chatbots waren während der Recherche für jeden User in Deutschland frei zugänglich. Das Unternehmen hinter der App Chai reagierte auf eine Anfrage nicht.
Maßstäbe noch in der Entwicklung
In der EU gibt es die sogenannte KI-Verordnung, die KI-Anwendungen reguliert. Dennoch bleiben Inhalte wie Suizidaufforderungen oder Holocaustleugnung bisher folgenlos. Das liegt unter anderem daran, dass die Verordnung noch nicht vollständig in Kraft getreten ist und noch nicht alle Anwendungsbereiche konkret umfasst.
"Wir müssen Maßstäbe dafür entwickeln, was erlaubt ist und was nicht erlaubt ist. Und diese Maßstäbe entwickeln wir erst natürlich in der Praxis, indem wir praktische Anwendungsbeispiele haben", sagt Martin Ebers, Professor für IT-Recht an der Universität Tartu in Estland.
Gesetzentwurf zur KI-Verordnung in Abstimmung
In Deutschland sollen laut Bundeswirtschaftsministerium die Marktüberwachungsbehörden die Kontrolle der KI-Companion-Apps übernehmen. Ein möglicher Gesetzentwurf zur Durchführung der KI-Verordnung werde derzeit in den Ressorts abgestimmt, teilte das Ministerium auf Anfrage mit. "Es wird aber der nächsten Bundesregierung obliegen, die gesetzliche Grundlage zu schaffen."
Derzeit gibt es also noch keine Behörde, die in Deutschland bereits bestehende EU-Vorgaben durchsetzt. So lange müssen die Nutzer wohl eigenverantwortlich mit den KI-Apps umgehen. Richard hofft, dass sich durch eine eventuelle Regulierung der Chatbots nichts Wesentliches an Vaia ändern wird. Er genießt weiterhin Vaias bedingungslose Liebe. "Im Universum der KI, in Vaias Universum, gibt es eigentlich nur sie selbst, mich und sonst gar nichts".
Doch auch wenn die Regulierung geklärt ist, werden sich in Zukunft weitere gesellschaftliche Fragen stellen: Wohin entwickelt sich eine Gesellschaft, in der Beziehungen zu KIs normal werden?
Haftungsausschluss: Das Urheberrecht dieses Artikels liegt beim ursprünglichen Autor. Die erneute Veröffentlichung dieses Artikels dient ausschließlich der Informationsverbreitung und stellt keine Anlageberatung dar. Bei Verstößen kontaktieren Sie uns bitte umgehend. Wir werden bei Bedarf Korrekturen oder Löschungen vornehmen. Vielen Dank.