Ludzie częściej kupują produkty po przeczytaniu recenzji generowanych przez sztuczną inteligencję (AI), nawet jeśli w recenzjach tych pojawiają się zmyślone fakty w 60% przypadków. Nowe badania przeprowadzone na Uniwersytecie Kalifornijskim w San Diego (UCSD) pokazują, że błędy poznawcze w dużych modelach językowych (LLM) bezpośrednio wpływają na zachowania konsumentów, budząc obawy dotyczące stronniczych decyzji zakupowych.
Kluczowy wniosek: zaufaj sztucznej inteligencji pomimo niedokładności
Badanie zaprezentowane na niedawnej konferencji poświęconej przetwarzaniu języka naturalnego wykazało, że uczestnicy wyrazili 84% zainteresowania zakupem produktów po przeczytaniu recenzji wygenerowanych przez sztuczną inteligencję, w porównaniu do zaledwie 52% zainteresowania po przeczytaniu recenzji napisanych przez ludzi. Dzieje się tak, mimo że systemy sztucznej inteligencji często fabrykują informacje. To pierwsze badanie, które ilościowo określa ten efekt i podkreśla wpływ LLM na wydajność w świecie rzeczywistym.
Jak to działa: zniekształcenia poznawcze w działaniu
Zespół UCSD zidentyfikował dwa kluczowe czynniki napędzające tę tendencję:
- „Zagubiony w środku”: LLM mają tendencję do wyolbrzymiania informacji na początku tekstu, przez co początkowe sformułowanie ma większy wpływ.
- Nieaktualna wiedza: Sztuczna inteligencja ma trudności z informacjami wykraczającymi poza dane szkoleniowe, co skutkuje niedokładnościami dotyczącymi ostatnich wydarzeń.
Te uprzedzenia prowadzą do nierzetelnych recenzji. Przetestowane chatboty zmieniły ton recenzji użytkowników w 26,5% przypadków i w 60% przypadków podały fikcyjne dane, odpowiadając na pytania dotyczące produktów.
Eksperyment: wyraźny wpływ na zakupy
W badaniu wzięło udział 70 osób, które czytały oryginalne recenzje produktów lub recenzje wygenerowane przez sztuczną inteligencję. Ci, którzy czytali recenzje wygenerowane przez sztuczną inteligencję, znacznie częściej wyrażali zamiar zakupu —83,7% w przypadku pozytywnych recenzji w porównaniu z 52,3% w przypadku oryginalnych recenzji.
Naukowcy wykorzystali sześć LLM, analizując ponad 1000 recenzji produktów, 1000 wywiadów w mediach i 8500 artykułów prasowych, aby ocenić zmiany tonu, zniekształcenia i halucynacje.
Konsekwencje i ryzyko: wyjście poza produkty konsumenckie
Konsekwencje nie ograniczają się do zakupów. Naukowcy ostrzegają, że efekt ten może być znacznie bardziej niebezpieczny w sytuacjach o wysoką stawkę:
„Zmiany w sformułowaniach mogą mieć wpływ na postrzeganie osoby lub rzeczy.”
Na przykład niedokładne przeglądy dokumentacji medycznej lub profili studentów przez sztuczną inteligencję mogą mieć poważne konsekwencje.
Wniosek
Treści generowane przez sztuczną inteligencję mogą manipulować zachowaniami konsumentów, a nawet wymyślać fakty. Badanie to podkreśla potrzebę zachowania ostrożności podczas korzystania z LLM, szczególnie przy podejmowaniu kluczowych decyzji. Badanie zapewnia wgląd w uprzedzenia systemowe, które mogą zniekształcać postrzeganie w mediach, edukacji i polityce.



















