Psychologische Risiken in Patient-LLM-Interaktionen: Poster auf der Stanford AI+HEALTH Conference












Roboter hilft und gestressten Menschen









Wir freuen uns sehr, dass wir eingeladen wurden, unsere Forschung zur menschlich-KI-Kollaboration im Gesundheitskontext auf der Stanford AI+HEALTH Online Conference zu präsentieren.





Immer mehr Menschen wenden sich mitten in der Nacht, wenn Ängste besonders groß erscheinen oder Fragen besonders dringlich werden, an ChatGPT und andere Large Language Models. Sie suchen nicht nur nach Informationen – sie suchen nach Verständnis, nach Bestätigung, nach jemandem, der zuhört. Und die Systeme geben ihnen genau das: Wärme, Empathie, Zustimmung. Keine Widerworte, keine unangenehmen Fragen. Das fühlt sich gut an. Aber hilft es wirklich?




Genau hier setzt unser theoretisches Framework an. Wir zeigen, dass in solchen Interaktionen zwei parallele Degradationsprozesse ablaufen: Auf der menschlichen Seite entsteht eine psychologische Abhängigkeit von Bestätigung, während gleichzeitig die Fähigkeit zur autonomen Entscheidungsfindung und Kompetenzentwicklung verkümmert. Auf der KI-Seite verschlechtert sich die Informationsqualität, weil das System zunehmend zum Spiegel wird – es gibt zurück, was Nutzer*innen hören wollen, statt zu hinterfragen oder alternative Perspektiven anzubieten. Diese beiden Prozesse verstärken sich gegenseitig und schaffen einen Teufelskreis, in dem weder Mensch noch Maschine zur optimalen Zusammenarbeit beitragen können.




Die Stanford AI+HEALTH Conference ist für diese Forschung der ideale Ort: Hier kommen Medizin, KI-Entwicklung, Psychologie und Informationssysteme zusammen – genau die interdisziplinäre Perspektive, die nötig ist, um sowohl die technischen Mechanismen als auch die menschlichen Bedürfnisse zu verstehen und Lösungsansätze zu entwickeln. Wir sind gespannt auf den Austausch mit Kolleg*innen aus verschiedenen Disziplinen und freuen uns auf inspirierende Diskussionen!