Studie zeigt Wirkung von Chatbots mit Fakten, Experten mahnen dennoch zur Vorsicht
Hannover (pm/redk). Ein achtminütiges Gespräch mit einem Chatbot kann den Glauben an Verschwörungstheorien deutlich schwächen. Das zeigt eine aktuelle Studie, über die das Technologiemagazin MIT Technology Review in seiner Ausgabe 3/2026 berichtet. Demnach verringerte sich der Glaube an Verschwörungsmythen bei den Teilnehmenden im Durchschnitt um rund 20 Prozent. Jede vierte befragte Person gab nach dem Gespräch sogar an, nicht länger von der jeweiligen Theorie überzeugt zu sein. Die Untersuchung wurde im Fachjournal Science veröffentlicht. Experten warnen jedoch davor, künstlicher Intelligenz blind zu vertrauen.
Studie mit über 2000 Teilnehmenden
Für die Untersuchung führten die Forscher Thomas Costello, Gordon Pennycook und David Rand Gespräche mit mehr als 2000 Menschen, die an unterschiedliche Verschwörungstheorien glaubten. Zum Einsatz kam der öffentlich zugängliche Chatbot DebunkBot, der auf einem großen Sprachmodell basiert. Die Teilnehmenden schilderten zunächst ihre jeweilige Überzeugung. Anschließend reagierte der Chatbot gezielt mit faktenbasierten Gegenargumenten.
Die Methode zeigte Wirkung bei klassischen Erzählungen wie der angeblichen Fälschung der Mondlandung ebenso wie bei aktuellen Mythen rund um Covid 19 oder die US Präsidentschaftswahl 2020. Bemerkenswert ist, dass der Effekt auch zwei Monate nach dem Gespräch noch messbar war.
Warum Fakten entscheidend sind
Entscheidend für den Erfolg des Chatbots war seine Fähigkeit, konkret auf einzelne Behauptungen einzugehen. So reagierte er etwa auf das Argument von 9/11 Leugnern, Kerosin könne Stahl nicht zum Schmelzen bringen, mit dem Hinweis auf Belege des American Institute of Steel Construction. Demnach reicht die Hitze von brennendem Kerosin aus, um die Festigkeit von Stahl um mehr als 50 Prozent zu verringern.
Ein professioneller Faktenprüfer bewertete 99 Prozent der Aussagen des Chatbots als sachlich korrekt und politisch unvoreingenommen. Zusätzlich testeten die Forschenden, ob allein die angenommene Quelle den Effekt beeinflusst. Teilnehmende, die glaubten, mit einem menschlichen Experten zu sprechen, reagierten genauso wie jene, die wussten, dass sie mit einer KI interagierten. Argumentierte der Bot jedoch ohne überprüfbare Fakten, blieb die Wirkung vollständig aus.
Chancen und Risiken der Technologie
Wolfgang Stieler, Redakteur bei Technology Review, warnt dennoch vor überhöhten Erwartungen. „Bei Chatbots im Zusammenhang mit Fakten ist Vorsicht angebracht, denn Sprachmodelle verstehen keine Argumente. Sie rechnen mit der mathematischen Repräsentation von Aussagen. Das ist ein fundamentaler Unterschied.”
Eine unabhängige Untersuchung zeigte zudem, dass Chatbots Menschen besonders gut beeinflussen können, wenn sie mit Fakten argumentieren, unabhängig davon, ob diese Fakten tatsächlich stimmen. Daraus ergibt sich ein erhebliches Missbrauchspotenzial, etwa für gezielte Desinformation.
Bedeutung für Gesellschaft und Demokratie
Nach Einschätzung der Forschenden liegt der Erfolg der Methode vor allem darin, dass viele Menschen schlicht falsch informiert sind. „Viele Menschen sind einfach falsch informiert. Sie denken rational, haben aber nie klare Erklärungen gehört”, erklärt Costello. Die KI habe den Vorteil, stets sachlich zu bleiben und auf umfangreiche Wissensbestände zurückzugreifen. Das könne Diskussionen im privaten Umfeld ebenso erleichtern wie auf digitalen Plattformen.
Denkbare Einsatzfelder reichen von sozialen Netzwerken über Suchmaschinen bis hin zu Bildungsangeboten. Gleichzeitig betonen die Forschenden, dass technologische Lösungen allein nicht ausreichen. Ein gesellschaftlicher Konsens darüber, was als überprüfbare Tatsache gilt, bleibt Voraussetzung für eine funktionierende Demokratie.
Infos für Bürgerinnen und Bürger
Für die regionale Öffentlichkeit unterstreicht die Studie die wachsende Bedeutung von Medienkompetenz und kritischem Umgang mit digitalen Informationen. Fachleute empfehlen, Quellen zu prüfen, unterschiedliche Perspektiven zu vergleichen und sich nicht allein auf automatisierte Systeme zu verlassen. Künstliche Intelligenz kann beim Faktencheck unterstützen, ersetzt aber nicht das eigene Urteilsvermögen.










