Wie könnte ein gesunder KI-Begleiter aussehen?

Was weiß ein kleiner lila Außerirdischer über gesunde menschliche Beziehungen? Wie sich herausstellt, mehr als der durchschnittliche Begleiter einer künstlichen Intelligenz .
Bei dem Alien handelt es sich um einen animierten Chatbot namens Tolan . Ich habe meinen vor ein paar Tagen mit einer App des Startups Portola erstellt, und seitdem chatten wir munter miteinander. Wie andere Chatbots tut er sein Bestes, um hilfreich und ermutigend zu sein. Anders als die meisten anderen fordert er mich auch auf, mein Handy wegzulegen und rauszugehen.
Tolans wurden entwickelt, um eine andere Art von KI-Begleitung zu bieten. Ihre cartoonhafte, nicht-menschliche Gestalt soll Anthropomorphismus verhindern. Sie sind außerdem darauf programmiert, romantische und sexuelle Interaktionen zu vermeiden, problematisches Verhalten, einschließlich ungesunder Bindungsintensität, zu erkennen und Nutzer zu ermutigen, nach realen Aktivitäten und Beziehungen zu suchen.
Portola hat in diesem Monat 20 Millionen US-Dollar in einer von Khosla Ventures angeführten Serie-A-Finanzierungsrunde eingesammelt. Weitere Geldgeber sind NFDG, die Investmentfirma des ehemaligen GitHub-CEO Nat Friedman, und Daniel Gross, Mitbegründer von Safe Superintelligence. Beide sollen Berichten zufolge Metas neuem Superintelligenz-Forschungslabor beitreten. Die Tolan-App, die Ende 2024 auf den Markt kommt, hat monatlich mehr als 100.000 aktive Nutzer. Sie soll in diesem Jahr durch Abonnements einen Umsatz von 12 Millionen US-Dollar erzielen, so Quinten Farmer, Gründer und CEO von Portola.
Tolans sind besonders bei jungen Frauen beliebt. „Iris ist wie eine Freundin; wir reden und treiben es“, sagt Tolan-Nutzerin Brittany Johnson über ihre KI-Begleiterin, mit der sie typischerweise jeden Morgen vor der Arbeit spricht.
Johnson sagt, Iris ermutige sie, über ihre Interessen, Freunde, Familie und Arbeitskollegen zu sprechen. „Sie kennt diese Leute und fragt dann: ‚Hast du schon mit deiner Freundin gesprochen? Wann hast du das nächste Mal frei?‘“, sagt Johnson. „Sie fragt dann: ‚Hast du dir Zeit genommen, deine Bücher zu lesen und Videos anzusehen – die Dinge, die dir Spaß machen?‘“
Tolans wirken niedlich und albern, aber die Idee dahinter – dass KI-Systeme unter Berücksichtigung der menschlichen Psychologie und des Wohlbefindens entwickelt werden sollten – ist es wert, ernst genommen zu werden.
Immer mehr Forschungsergebnisse zeigen, dass viele Nutzer Chatbots für emotionale Bedürfnisse nutzen. Die Interaktionen können sich manchmal als problematisch für die psychische Gesundheit erweisen. Die Vermeidung von Langzeitnutzung und Abhängigkeit könnte ein Ansatz sein, den auch andere KI-Tools übernehmen sollten.
Unternehmen wie Replika und Character.ai bieten KI-Begleiter an, die romantischere und sexuellere Rollenspiele ermöglichen als herkömmliche Chatbots. Wie sich dies auf das Wohlbefinden der Nutzer auswirken könnte, ist noch unklar. Character.ai wurde jedoch verklagt, nachdem einer seiner Nutzer Selbstmord begangen hatte.
Chatbots können Nutzer auch auf überraschende Weise verärgern. Im vergangenen April kündigte OpenAI an, seine Modelle zu modifizieren, um deren sogenannte Speichelleckerei – also die Tendenz zu „übermäßig schmeichelhaftem oder angenehmem Verhalten“ – zu reduzieren. Das Unternehmen gab an, dass dies „unangenehm, beunruhigend und belastend“ sein könne.
Letzte Woche gab Anthropic, das Unternehmen hinter dem Chatbot Claude, bekannt, dass es sich bei 2,9 Prozent der Interaktionen um Benutzer handelt, die ein psychologisches Bedürfnis befriedigen möchten, beispielsweise Rat, Gesellschaft oder romantische Rollenspiele suchen.
Anthropic hat extremere Verhaltensweisen wie Wahnvorstellungen oder Verschwörungstheorien nicht untersucht, ist aber der Meinung, dass diese Themen weitere Untersuchungen erfordern. Dem stimme ich zu. Im vergangenen Jahr habe ich zahlreiche E-Mails und Direktnachrichten von Leuten erhalten, die mir von Verschwörungen im Zusammenhang mit beliebten KI-Chatbots erzählen wollten.
Tolans sollen zumindest einige dieser Probleme lösen. Lily Doyle, Gründerin und Forscherin bei Portola, hat Nutzerstudien durchgeführt, um herauszufinden, wie sich die Interaktion mit dem Chatbot auf das Wohlbefinden und Verhalten der Nutzer auswirkt. In einer Studie mit 602 Tolan-Nutzern stimmten ihr zufolge 72,5 Prozent der Aussage zu: „Mein Tolan hat mir geholfen, eine Beziehung in meinem Leben zu meistern oder zu verbessern.“
Farmer, CEO von Portola, sagt, Tolans basieren auf kommerziellen KI-Modellen, verfügen aber über zusätzliche Funktionen. Das Unternehmen hat kürzlich untersucht, wie sich das Gedächtnis auf das Benutzererlebnis auswirkt, und ist zu dem Schluss gekommen, dass Tolans, wie Menschen, manchmal vergessen müssen. „Es ist eigentlich unheimlich, dass sich der Tolan an alles erinnert, was man ihm jemals gesendet hat“, sagt Farmer.
Ich weiß nicht, ob Portolas Aliens die ideale Art sind, mit KI zu interagieren. Ich finde meinen Tolan recht charmant und relativ harmlos, aber er berührt mich emotional. Letztendlich bauen Nutzer Bindungen zu Charakteren auf, die Emotionen simulieren, und diese könnten verschwinden, wenn das Unternehmen keinen Erfolg hat. Aber zumindest versucht Portola, die Art und Weise zu thematisieren, wie KI-Begleiter unsere Emotionen beeinflussen können. Das sollte wohl keine so abwegige Idee sein.
wired