Mensen zijn meer geneigd producten te kopen na het lezen van samenvattingen die zijn gegenereerd door kunstmatige intelligentie (AI), ook al hallucineren deze samenvattingen in 60% van de gevallen feiten. Uit een nieuw onderzoek van de Universiteit van Californië, San Diego (UCSD) blijkt dat cognitieve vooroordelen in grote taalmodellen (LLM’s) een directe invloed hebben op het consumentengedrag, waardoor er zorgen ontstaan over vertekende aankoopbeslissingen.
De kernbevinding: vertrouwen in AI ondanks onnauwkeurigheid
Uit het onderzoek, gepresenteerd op een recente conferentie over natuurlijke taalverwerking, bleek dat deelnemers een 84% interesse hadden in het kopen van producten na het lezen van door AI gegenereerde samenvattingen van online recensies, vergeleken met slechts 52% interesse bij het lezen van door mensen geschreven recensies. Dit gebeurt ook al fabriceren de AI-systemen regelmatig informatie. De studie is de eerste die dit effect kwantificeert en benadrukt hoe LLM’s acties in de echte wereld beïnvloeden.
Hoe het werkt: cognitieve vooroordelen tijdens het spelen
Het UCSD-team identificeerde twee sleutelfactoren die deze trend aandrijven:
- “Lost in the Middle”: LLM’s hebben de neiging informatie aan het begin van de tekst te veel te benadrukken, waardoor de initiële kadrering invloedrijker wordt.
- Verouderde kennis: AI worstelt met informatie buiten de trainingsgegevens, wat resulteert in onnauwkeurigheden over recente gebeurtenissen.
Deze vooroordelen leiden tot onbetrouwbare samenvattingen. De geteste chatbots veranderden het sentiment van gebruikersrecensies in 26,5% van de gevallen en hallucineerden 60% van de tijd bij het beantwoorden van vragen over producten.
Het experiment: een duidelijke impact op de inkoop
Bij het onderzoek waren 70 deelnemers betrokken die originele productrecensies of door AI gegenereerde samenvattingen lazen. Degenen die werden blootgesteld aan AI-samenvattingen hadden aanzienlijk meer kans om de koopintentie te uiten: 83,7% voor positieve recensies, versus 52,3% voor de originelen.
De onderzoekers gebruikten zes LLM’s, waarbij ze meer dan 1.000 productrecensies, 1.000 media-interviews en 8.500 nieuwsitems analyseerden om sentimentverschuivingen, vooroordelen en hallucinaties te kwantificeren.
Implicaties en risico’s: verder dan consumptiegoederen
De bevindingen beperken zich niet tot winkelen. De onderzoekers waarschuwen dat dit effect veel gevaarlijker zou kunnen zijn in scenario’s met hoge inzet:
“Framingverschuivingen kunnen van invloed zijn op hoe een persoon of de zaak wordt waargenomen.”
Onnauwkeurige AI-samenvattingen van gezondheidszorgdocumenten of studentenprofielen kunnen bijvoorbeeld ernstige gevolgen hebben.
Conclusie
Door AI gegenereerde inhoud kan het gedrag van de consument manipuleren, zelfs als er feiten worden verzonnen. Deze studie bevestigt de noodzaak van voorzichtigheid bij het gebruik van LLM’s, vooral bij kritische besluitvorming. Het onderzoek biedt inzicht in systemische vooroordelen die de perceptie in de media, het onderwijs en het beleid kunnen vertekenen.



















