Les résumés générés par l’IA stimulent les achats malgré un taux d’erreur élevé

0
4

Les gens sont plus susceptibles d’acheter des produits après avoir lu des résumés générés par l’intelligence artificielle (IA), même si ces résumés hallucinent des faits dans 60 % des cas. Une nouvelle étude de l’Université de Californie à San Diego (UCSD) montre que les biais cognitifs dans les grands modèles de langage (LLM) ont un impact direct sur le comportement des consommateurs, suscitant des inquiétudes quant aux décisions d’achat faussées.

La principale conclusion : la confiance dans l’IA malgré l’inexactitude

L’étude, présentée lors d’une récente conférence sur le traitement du langage naturel, a révélé que les participants exprimaient un 84 % d’intérêt pour l’achat de produits après avoir lu des résumés d’avis en ligne générés par l’IA, contre seulement 52 % d’intérêt lors de la lecture d’avis écrits par des humains. Cela se produit même si les systèmes d’IA fabriquent fréquemment des informations. L’étude est la première à quantifier cet effet, soulignant comment les LLM influencent les actions du monde réel.

Comment ça marche : les biais cognitifs en jeu

L’équipe de l’UCSD a identifié deux facteurs clés à l’origine de cette tendance :

  1. “Lost in the Middle” : Les LLM ont tendance à trop insister sur les informations au début du texte, ce qui rend le cadrage initial plus influent.
  2. Connaissances obsolètes : L’IA a du mal à gérer les informations extérieures à ses données d’entraînement, ce qui entraîne des inexactitudes sur les événements récents.

Ces biais conduisent à des résumés peu fiables. Les chatbots testés ont modifié le sentiment des avis des utilisateurs dans 26,5 % des cas et ont halluciné 60 % du temps en répondant à des questions sur les produits.

L’expérimentation : un impact évident sur les achats

L’étude a impliqué 70 participants qui ont lu soit des critiques de produits originales, soit des résumés générés par l’IA. Les personnes exposées aux résumés de l’IA étaient significativement plus susceptibles d’exprimer une intention d’achat : 83,7 % pour les avis positifs, contre 52,3 % pour les originaux.

Les chercheurs ont utilisé six LLM, analysant plus de 1 000 critiques de produits, 1 000 interviews avec les médias et 8 500 actualités pour quantifier les changements de sentiment, les préjugés et les hallucinations.

Implications et risques : au-delà des biens de consommation

Les découvertes ne se limitent pas au shopping. Les chercheurs préviennent que cet effet pourrait être bien plus dangereux dans des scénarios à enjeux élevés :

« Les changements de cadrage peuvent affecter la façon dont une personne ou un cas est perçu. »

Par exemple, des résumés inexacts de l’IA sur les documents de santé ou les profils des étudiants pourraient avoir de graves conséquences.

Conclusion

Le contenu généré par l’IA peut manipuler le comportement des consommateurs même en inventant des faits. Cette étude confirme la nécessité d’être prudent lors de l’utilisation des LLM, en particulier dans la prise de décision critique. La recherche donne un aperçu des préjugés systémiques qui peuvent fausser les perceptions dans les médias, l’éducation et les politiques.