KI-generierte Zusammenfassungen fördern Käufe trotz hoher Fehlerquote

0
10

Menschen kaufen eher Produkte, nachdem sie Zusammenfassungen gelesen haben, die mit künstlicher Intelligenz (KI) erstellt wurden, auch wenn diese Zusammenfassungen in 60 % der Fälle Fakten halluzinieren. Eine neue Studie der University of California, San Diego (UCSD) zeigt, dass kognitive Verzerrungen in großen Sprachmodellen (LLMs) sich direkt auf das Verbraucherverhalten auswirken und Bedenken hinsichtlich verzerrter Kaufentscheidungen aufkommen lassen.

Das Kernergebnis: Vertrauen in KI trotz Ungenauigkeit

Die Studie, die kürzlich auf einer Konferenz zur Verarbeitung natürlicher Sprache vorgestellt wurde, ergab, dass die Teilnehmer nach dem Lesen von KI-generierten Zusammenfassungen von Online-Bewertungen 84 % Interesse am Kauf von Produkten äußerten, verglichen mit nur 52 % Interesse beim Lesen von von Menschen verfassten Bewertungen. Dies geschieht, obwohl die KI-Systeme häufig Informationen fabrizieren. Die Studie ist die erste, die diesen Effekt quantifiziert und zeigt, wie LLMs das Handeln in der realen Welt beeinflussen.

Wie es funktioniert: Kognitive Vorurteile im Spiel

Das UCSD-Team identifizierte zwei Schlüsselfaktoren, die diesen Trend vorantreiben:

  1. „Lost in the Middle“: LLMs neigen dazu, Informationen am Anfang des Textes zu stark hervorzuheben, wodurch die anfängliche Formulierung einflussreicher wird.
  2. Veraltetes Wissen: KI hat Probleme mit Informationen außerhalb ihrer Trainingsdaten, was zu Ungenauigkeiten über aktuelle Ereignisse führt.

Diese Vorurteile führen zu unzuverlässigen Zusammenfassungen. Die getesteten Chatbots veränderten die Stimmung von Nutzerbewertungen in 26,5 % der Fälle und halluzinierten 60 % der Zeit bei der Beantwortung von Fragen zu Produkten.

Das Experiment: Ein klarer Einfluss auf den Einkauf

An der Studie nahmen 70 Teilnehmer teil, die entweder Original-Produktrezensionen oder KI-generierte Zusammenfassungen lasen. Diejenigen, die KI-Zusammenfassungen sahen, äußerten mit deutlich größerer Wahrscheinlichkeit eine Kaufabsicht – 83,7 % für positive Bewertungen im Vergleich zu 52,3 % für die Originale.

Die Forscher verwendeten sechs LLMs und analysierten über 1.000 Produktbewertungen, 1.000 Medieninterviews und 8.500 Nachrichten, um Stimmungsschwankungen, Voreingenommenheit und Halluzinationen zu quantifizieren.

Auswirkungen und Risiken: Über Konsumgüter hinaus

Die Ergebnisse beschränken sich nicht nur auf das Einkaufen. Die Forscher warnen, dass dieser Effekt in Szenarien mit hohem Risiko weitaus gefährlicher sein könnte:

„Framing-Verschiebungen können sich darauf auswirken, wie eine Person oder der Fall wahrgenommen wird.“

Beispielsweise könnten ungenaue KI-Zusammenfassungen von Gesundheitsdokumenten oder Studentenprofilen schwerwiegende Folgen haben.

Fazit

KI-generierte Inhalte können das Verbraucherverhalten manipulieren, selbst wenn sie Fakten erfinden. Diese Studie bestätigt, dass beim Einsatz von LLMs Vorsicht geboten ist, insbesondere bei kritischen Entscheidungen. Die Forschung liefert Einblicke in systemische Vorurteile, die die Wahrnehmung in Medien, Bildung und Politik verzerren können.