In den USA haben Forscherinnen und Forscher des MIT (Massachusetts Institute of Technology) einen KI-gesteuerten Chatbot entwickelt, der das Verhalten eines „zukünftigen Ichs“ simulieren soll und dem Nutzer bzw. der Nutzerin Beobachtungen und Weisheiten zu ihren bisherigen Leben mit auf den Weg geben soll. Auch ein digital gealtertes Bild der User soll dabei angezeigt werden.
„Das Ziel ist es, langfristiges Denken und Verhaltensänderungen zu fördern“, zitierte heute der „Guardian“ Pat Pataranutaporn, der am Projekt „Future You“ im Media Lab des MIT arbeitet. „Das könnte die Menschen dazu motivieren, in der Gegenwart klügere Entscheidungen zu treffen, die ihr langfristiges Wohlbefinden und ihre Lebenserfolge optimieren.“
Pataranutaporn hatte mehrere Gespräche mit seinem „zukünftigen Ich“, aber das tiefgreifendste sei gewesen, als der Chatbot ihn daran erinnerte, dass seine Eltern nicht ewig leben würden und er deshalb Zeit mit ihnen verbringen sollte, solange er es noch könne. „Die Sitzung hat mir eine Perspektive gegeben, die mich bis heute prägt“, sagte er.
Wie funktioniert es?
Betrieben wird der Chatbot von GPT3.5 des KI-Unternehmens OpenAI. Um mit ihm zu interagieren, werden die Nutzerinnen und Nutzer zunächst aufgefordert, eine Reihe von Fragen zu beantworten zu ihrer Person, ihren Freunden, ihrer Familie, den Erfahrungen, die sie in ihrer Vergangenheit gemacht haben und dem idealen Leben, das sie sich für die Zukunft vorstellen.
Im Anschluss wird ein Porträtbild hochgeladen, das das Programm digital älter macht, um ein Abbild des Nutzers bzw. der Nutzerin im Alter von 60 Jahren zu erstellen. Anschließend speist das Programm die eingegebenen Informationen der Nutzerinnen und Nutzer in ein Sprachmodell ein, wodurch sichergestellt wird, dass der Chatbot bei der Beantwortung der Fragen auf eine umfassende Hintergrundgeschichte zurückgreifen kann.
Effektivität wird sich zeigen
Aus praktischer Sicht werde die Effektivität wahrscheinlich davon abhängen, wie gut es gelingt, sinnvolle und relevante Gespräche zu simulieren, sagte Verhaltensforscher Ivo Vlaev dem „Guardian“. „Wenn die Nutzerinnen und Nutzer den Chatbot als authentisch und aufschlussreich empfinden, könnte er ihr Verhalten erheblich beeinflussen.“ Sollten sich die Interaktionen jedoch eher oberflächlich anfühlen, könnte die Wirkung begrenzt sein.
Noch handelt es sich bei dem Projekt um eine wissenschaftliche Vorabveröffentlichung, die bisher nicht von Fachleuten geprüft („peer-reviewed“) wurde. Doch die Versuche mit 344 Freiwilligen hätten ergeben, dass sich die Menschen bei Gesprächen mit dem Chatbot weniger ängstlich und stärker mit ihrem „zukünftigen Ich“ verbunden fühlen.