Neue Forschungsergebnisse deuten darauf hin, dass die Verwendung eines KI-Tools zum Schreiben einer Nachricht an einen Freund möglicherweise nicht die beste Option ist, insbesondere wenn der Freund erfährt, dass KI im Spiel ist. Untersuchungen zeigen, dass die Teilnehmer imaginäre Freunde, die KI zum Schreiben von Nachrichten verwendeten, als weniger authentisch einschätzten als Freunde, die Nachrichten manuell verfassten.

Bingjie Liu, Hauptautorin der Studie und Assistenzprofessorin für Kommunikation an der Ohio State University, sagte, diese Ansicht sei zwar verständlich, ihre Auswirkungen seien jedoch nicht auf den Inhalt der Nachricht beschränkt.

Liu Bingjie sagte: „Nachdem sie KI-gestützte Informationen erhalten haben, werden die Menschen mit ihren Beziehungen zu ihren Freunden weniger zufrieden sein und sich unsicherer über ihre Position fühlen.“

Aber um der KI gegenüber fair zu sein: Es ist nicht nur der Einsatz der Technologie, der Menschen abschreckt. Die Studie ergab außerdem, dass es auch negative Auswirkungen hatte, wenn Menschen erfuhren, dass ihre Freunde beim Verfassen ihrer Nachrichten Hilfe von anderen erhalten hatten. Menschen möchten, dass ihr Partner oder Freund sich die Mühe macht, die Nachricht selbst und ohne die Hilfe künstlicher Intelligenz oder anderer Personen zu verfassen.

Die Forschung wurde kürzlich online im Journal of Social and Personal Relationships veröffentlicht.

Liu sagte, dass mit zunehmender Beliebtheit von KI-Chatbots wie ChatGPT die Frage, wie man sie nutzt, relevanter und komplexer werde. An der Studie nahmen 208 Erwachsene online teil. Den Teilnehmern wurde erzählt, dass sie seit vielen Jahren mit einem Mann namens Tyler befreundet seien. Ihnen wurde gesagt, dass es drei Szenarios gäbe: Sie litten unter Burnout und brauchten Unterstützung; sie hatten Konflikte mit Kollegen und brauchten Rat; oder ihr Geburtstag stand vor der Tür.

Anschließend wurden die Teilnehmer aufgefordert, in einem Textfeld auf dem Computerbildschirm eine kurze Nachricht an Taylor zu schreiben, in der sie ihre aktuelle Situation schilderten.

Allen Teilnehmern wurde gesagt, dass Taylor ihnen eine Antwort schicken würde. Während dieser Szenarien schrieb Taylor einen ersten Entwurf. Einigen Teilnehmern wurde gesagt, dass Taylor über ein künstliches Intelligenzsystem verfüge, um die Nachricht zu überarbeiten, um den richtigen Ton zu erreichen, anderen wurde gesagt, dass ein Mitglied der Schreibgemeinschaft bei den Überarbeitungen geholfen habe, und einer dritten Gruppe von Teilnehmern wurde gesagt, dass Taylor alle Überarbeitungen der Nachricht vorgenommen habe.

In jedem Fall bewerteten die Studienteilnehmer Taylors Antworten gleich, einschließlich „nachdenklich“. Dennoch hatten die Studienteilnehmer gemischte Gefühle hinsichtlich der Nachrichten, die sie angeblich über Taylor erhalten hatten. Diejenigen, die KI-gestützte Antworten erhielten, hielten das, was Taylor getan hatte, für weniger angemessen und unangemessen als diejenigen, die Antworten erhielten, die nur von Taylor selbst verfasst wurden.

KI-Antworten führten auch dazu, dass die Teilnehmer weniger zufrieden mit ihrer Beziehung waren, etwa indem sie Taylor schlechter einschätzten, wenn es darum ging, „meine Bedürfnisse als enger Freund“ zu erfüllen. Darüber hinaus waren sich in der Studie die Personen, die die KI-gestützten Antworten erhielten, unsicherer über ihre Beziehung zu Taylor und weniger sicher über die Aussage „Taylor mag mich als engen Freund.“

Ein möglicher Grund, warum Menschen KI-gestützte Antworten nicht mögen, ist, dass sie es für unangemessen und minderwertig halten, mithilfe von Technologie solche persönlichen Informationen zu erstellen. Die Ergebnisse zeigten jedoch, dass die Menschen gleichermaßen negativ reagierten, wenn Taylor einen anderen Menschen – ein Mitglied einer Online-Schreibgemeinschaft – um Hilfe beim Verfassen der Nachricht bat.

Die Studie ergab, dass Menschen der Meinung sind, dass Freunde keine Dritten – künstliche Intelligenz oder andere Menschen – nutzen sollten, um ihre Beziehung aufrechtzuerhalten. Der Grund dafür war, dass die Teilnehmer glaubten, Taylor habe sich weniger Mühe für ihre Beziehung aufgewendet, indem sie sich beim Verfassen der Nachricht auf künstliche Intelligenz oder andere Menschen verlassen habe.

Je schlechter die Teilnehmer Taylors Bemühungen, KI oder andere Menschen einzusetzen, bewerteten, desto unzufriedener waren sie mit ihrer Beziehung und desto unsicherer waren sie hinsichtlich der Freundschaft.

„Anstrengung ist in einer Beziehung sehr wichtig“, sagte Liu. „Die Leute möchten wissen, wie viel Sie bereit sind, in Ihre Freundschaft zu investieren, und wenn sie das Gefühl haben, dass Sie durch den Einsatz von KI Abstriche machen, ist das nicht gut.“

Natürlich werden die meisten Menschen ihren Freunden nicht erzählen, dass sie KI zur Erstellung ihrer Nachrichten verwendet haben, aber sie wies darauf hin, dass mit zunehmender Beliebtheit von ChatGPT und anderen Diensten Menschen möglicherweise damit beginnen, Turing-Tests in ihren Gedanken durchzuführen, während sie Nachrichten von Freunden und anderen lesen. Der Begriff „Turing-Test“ wird manchmal verwendet, wenn Menschen wissen wollen, ob sie erkennen können, ob eine Aktion von einem Computer oder einem Menschen ausgeführt wurde.

Die Leute könnten heimlich einen solchen Turing-Test in ihren Köpfen durchführen, um herauszufinden, ob die Informationen ein Element künstlicher Intelligenz enthalten. Dies kann Beziehungen schaden.

Die Antwort sei, seinen Job in Beziehungen zu machen, sagte sie. „Verwenden Sie Technologie nicht nur, weil sie praktisch ist. Aufrichtigkeit und Authentizität sind in Beziehungen immer noch sehr wichtig.“