Studie: Laien vertrauen KI zu stark, Experten oft zu wenig
Chatbots, die fragen statt zu antworten? Forscher testen neue Methoden, damit KI uns nicht unbemerkt lenkt. Was dahintersteckt und was Mediziner davon haben könnten.
Chatbots, die fragen statt zu antworten? Forscher testen neue Methoden, damit KI uns nicht unbemerkt lenkt. Was dahintersteckt und was Mediziner davon haben könnten.
Forscher der Stuttgarter Universität Hohenheim haben untersucht, wie Menschen Empfehlungen der Künstlichen Intelligenz bewerten – und sind dabei auf zwei Extreme gestoßen. Denn Laien neigen nach Angaben des Wirtschaftsethikers Matthias Uhl dazu, KI-Systemen bei persönlichen und moralischen Fragen übermäßig zu vertrauen. Fachleute – etwa in der Medizin – seien bei KI-gestützten Empfehlungen hingegen überaus zögerlich.
Uhl zufolge ist es ein Problem, dass die KI oft unbemerkt beeinflusst: «Dabei unterschätzen sie häufig, wie stark die Antworten die eigene Meinungsbildung beeinflussen können», sagt er über Nutzer, die Chatbots für Lebensfragen nutzen. Auf der anderen Seite warnt er vor übertriebener Skepsis: «Wenn es etwa darum geht, Röntgenbilder, MRTs oder andere medizinische Bilder zu beurteilen, ist die KI inzwischen meist besser als jeder Mensch.»
Wissenschaftler testen Chatsbots mit Rückfragen
Als Lösung für beide Probleme setzen Uhl und sein Team auf unterschiedliche Ansätze. Im privaten Bereich erproben sie Chatbots, die nach der sogenannten sokratischen Methode Rückfragen stellen, statt direkte Antworten zu geben – mit dem Ziel, das eigene Wertesystem zu schärfen. In einem Experiment mit Anhängern der US-amerikanischen Republikaner und Demokraten handelten Probanden nach solchen Gesprächen nachweislich fairer.
Für den Einsatz im Fachbereich arbeitet das Team im Projekt «Ethyde» mit dem Bayerischen Forschungsinstitut für Digitale Transformation daran, KI transparenter zu machen – etwa indem sie ihre Diagnosen begründet oder angibt, wie sicher sie sich ist. Bis Ende 2027 sollen erste Prototypen auf Medizinkongressen getestet werden.
© dpa-infocom, dpa:260510-930-58966/1
Copyright 2026, dpa (www.dpa.de). Alle Rechte vorbehalten