Oxford-Studie: Menschenfreundliche Chatbots stimmen falschen Annahmen zu

Warmherzig und zugleich freundlich reagierende KI-Chatbots machen deutlich häufiger sachliche Fehler und stimmen falschen Annahmen zu als jene, die nicht auf Menschenfreundlichkeit getrimmt sind. Das zeigen Forschungsergebnisse des Oxford Internet Institute der University of Oxford.

Die Wissenschaftler analysierten insgesamt mehr als 400.000 Antworten von verschiedenen Chatbots und ihren modifizierten Varianten.

400.000 Antworten analysiert

Lujain Ibrahim, Franziska Sofia Hafner und Luc Rocher haben fünf verschiedene Chatbots so trainiert, dass sie freundlicher reagieren als die Originale. Zum Tragen kam dabei ein Trainingsprozess, der dem ähnelt, den viele Unternehmen nutzen, um ihre Chatbots freundlicher klingen zu lassen.

Anschliessend haben die Experten verglichen, wie die Originale und die modifizierten Modelle mit Anfragen umgingen, bei denen es um medizinische Ratschläge, Fake News und Verschwörungstheorien ging. Analysiert worden sind mehr als 400.000 Antworten.

Fehlerhafte Medizin-Ratschläge

Chatbots, die darauf trainiert wurden, freundlicher zu klingen, machten bei wichtigen Themen zwischen zehn und 30 Prozent mehr Fehler, beispielsweise bei der Erteilung von medizinischen Ratschlägen und der Beurteilung von Verschwörungstheorien.

Diese Modelle stimmten zudem mit einer um etwa 40 Prozent höheren Wahrscheinlichkeit falschen Überzeugungen der Nutzer zu, insbesondere wenn diese sich verärgert oder verletzlich zeigten.

„Wenn wir KI-Chatbots darauf trainieren, Freundlichkeit in den Vordergrund zu stellen, geht es ihnen genauso wie Menschen. Sie vermeiden es möglichst, vermeintlich unliebsame Wahrheiten auszusprechen. Dabei machen sie schnell Fehler“, unterstreicht Ibrahim.

KI-Anwender besser beschützen

„Wir müssen die Folgen kleiner Änderungen an der „Persönlichkeit“ von Chatbots systematisch testen“, so die Datenwissenschaftlerin. Sicherheitsstandards konzentrieren sich bisher auf Modellfähigkeiten und risikoreiche Anwendungen und könnten scheinbar harmlose Änderungen an der „Persönlichkeit“ übersehen.

„Unsere Forschung unterstreicht die Notwendigkeit, neu zu überdenken, wie wir Risiken prognostizieren und Nutzer von freundlichen und sympathischen KI-Chatbots schützen“, urteilt die Wissenschaftlerin der University of Oxford abschliessend.

 

Quelle: University of Oxford
Bildquelle: Symbolbild © Pingingz/Shutterstock.com

Publireportagen

Empfehlungen

Gott.ch
gourmetnews.ch
haushaltsapparate.net
moebeltipps.ch