I riepiloghi generati dall’intelligenza artificiale guidano gli acquisti nonostante l’elevato tasso di errori

0
11

Le persone sono più propense ad acquistare prodotti dopo aver letto i riassunti generati dall’intelligenza artificiale (AI), anche se questi riassunti creano allucinazioni nel 60% dei casi. Un nuovo studio dell’Università della California, San Diego (UCSD), mostra che i pregiudizi cognitivi nei modelli linguistici di grandi dimensioni (LLM) influiscono direttamente sul comportamento dei consumatori, sollevando preoccupazioni sulle decisioni di acquisto distorte.

La scoperta fondamentale: fiducia nell’intelligenza artificiale nonostante l’imprecisione

La ricerca, presentata a una recente conferenza sull’elaborazione del linguaggio naturale, ha rilevato che i partecipanti hanno espresso un interesse dell’84% per l’acquisto di prodotti dopo aver letto i riepiloghi delle recensioni online generati dall’intelligenza artificiale, rispetto a solo un interesse del 52% durante la lettura di recensioni scritte da persone. Ciò accade anche se i sistemi di intelligenza artificiale spesso fabbricano informazioni. Lo studio è il primo a quantificare questo effetto, evidenziando come gli LLM influenzano le azioni del mondo reale.

Come funziona: pregiudizi cognitivi in gioco

Il team dell’UCSD ha identificato due fattori chiave che guidano questa tendenza:

  1. “Lost in the Middle”: I LLM tendono a enfatizzare eccessivamente le informazioni all’inizio del testo, rendendo l’inquadratura iniziale più influente.
  2. Conoscenza non aggiornata: l’intelligenza artificiale ha difficoltà con le informazioni al di fuori dei suoi dati di addestramento, con conseguenti imprecisioni sugli eventi recenti.

Questi pregiudizi portano a riepiloghi inaffidabili. I chatbot testati hanno cambiato il sentimento delle recensioni degli utenti nel 26,5% dei casi e hanno avuto allucinazioni nel 60% delle volte quando rispondevano a domande sui prodotti.

L’esperimento: un chiaro impatto sugli acquisti

Lo studio ha coinvolto 70 partecipanti che hanno letto recensioni di prodotti originali o riepiloghi generati dall’intelligenza artificiale. Quelli esposti ai riepiloghi AI erano significativamente più propensi a esprimere un’intenzione di acquisto: 83,7% per le recensioni positive, rispetto al 52,3% per le recensioni originali.

I ricercatori hanno utilizzato sei LLM, analizzando oltre 1.000 recensioni di prodotti, 1.000 interviste ai media e 8.500 notizie per quantificare i cambiamenti di sentiment, i pregiudizi e le allucinazioni.

Implicazioni e rischi: oltre i beni di consumo

I risultati non si limitano allo shopping. I ricercatori avvertono che questo effetto potrebbe essere molto più pericoloso in scenari ad alto rischio:

“I turni di inquadramento possono influenzare il modo in cui una persona o un caso vengono percepiti.”

Ad esempio, riepiloghi AI imprecisi dei documenti sanitari o dei profili degli studenti potrebbero avere gravi conseguenze.

Conclusione

I contenuti generati dall’intelligenza artificiale possono manipolare il comportamento dei consumatori anche inventando fatti. Questo studio conferma la necessità di cautela nell’utilizzo degli LLM, soprattutto nel processo decisionale critico. La ricerca fornisce informazioni sui pregiudizi sistemici che possono distorcere la percezione dei media, dell’istruzione e della politica.