Lidé si s větší pravděpodobností koupí produkty po přečtení recenzí generovaných umělou inteligencí (AI), i když tyto recenze chrlí smyšlená fakta 60 % času. Nový výzkum Kalifornské univerzity v San Diegu (UCSD) ukazuje, že kognitivní předsudky ve velkých jazykových modelech (LLM) přímo ovlivňují chování spotřebitelů, což vyvolává obavy ze zkreslených nákupních rozhodnutí.
Klíčové shrnutí: Důvěra v AI navzdory nepřesnosti
Studie prezentovaná na nedávné konferenci Natural Language Processing zjistila, že účastníci vyjádřili 84% zájem o nákup produktů po přečtení recenzí generovaných umělou inteligencí, ve srovnání s pouhými 52% zájmem při čtení recenzí napsaných lidmi. To se děje, i když systémy umělé inteligence informace často vymýšlí. Toto je první studie, která kvantifikuje tento efekt a zdůrazňuje, jak LLM ovlivňují výkon v reálném světě.
Jak to funguje: Kognitivní zkreslení v akci
Tým UCSD identifikoval dva klíčové faktory, které řídí tento trend:
- “Lost in the Middle”: LLM mají tendenci zveličovat informace na začátku textu, což činí počáteční rámce vlivnějším.
- Zastaralé znalosti: Umělá inteligence má potíže s informacemi, které přesahují její tréninková data, což vede k nepřesnostem ohledně nedávných událostí.
Tyto předsudky vedou k nespolehlivým recenzím. Testovaní chatboti změnili tón uživatelských recenzí v 26,5 % případů a v 60 % případů poskytli fiktivní data při zodpovězení dotazů na produkty.
Experiment: Explicitní vliv na nákupy
Studie se zúčastnilo 70 lidí, kteří četli buď recenze původních produktů, nebo recenze vytvořené AI. U uživatelů, kteří si přečetli recenze generované umělou inteligencí, byla výrazně vyšší pravděpodobnost, že vyjádří nákupní záměr –83,7 % u pozitivních recenzí oproti 52,3 % u původních recenzí.
Výzkumníci použili šest LLM, analyzovali více než 1 000 recenzí produktů, 1 000 rozhovorů v médiích a 8 500 zpravodajských článků k posouzení posunů tónu, zkreslení a halucinací.
Důsledky a rizika: Jít za hranice spotřebních produktů
Důsledky se neomezují pouze na nakupování. Výzkumníci varují, že tento efekt může být mnohem nebezpečnější v situacích s vysokými sázkami:
„Změny ve formulacích mohou ovlivnit to, jak je člověk nebo věc vnímána.“
Vážné následky mohou mít například nepřesné kontroly AI lékařských záznamů nebo profilů studentů.
Závěr
Obsah generovaný umělou inteligencí může manipulovat chování spotřebitelů, dokonce si vymýšlet fakta. Tato studie zdůrazňuje potřebu opatrnosti při používání LLM, zejména při přijímání kritických rozhodnutí. Studie poskytuje vhled do systémových předsudků, které mohou zkreslovat vnímání v médiích, vzdělávání a politice.