Resumos gerados por IA impulsionam compras apesar da alta taxa de erros

0
15

As pessoas são mais propensas a comprar produtos depois de lerem resumos gerados pela inteligência artificial (IA), embora esses resumos alucinem fatos em 60% dos casos. Um novo estudo da Universidade da Califórnia, San Diego (UCSD), mostra que os preconceitos cognitivos em grandes modelos de linguagem (LLMs) impactam diretamente o comportamento do consumidor, levantando preocupações sobre decisões de compra distorcidas.

A principal conclusão: confiança na IA apesar da imprecisão

A pesquisa, apresentada em uma recente conferência sobre processamento de linguagem natural, descobriu que os participantes expressaram 84% de interesse em comprar produtos após lerem resumos de avaliações online gerados por IA, em comparação com apenas 52% de interesse ao lerem avaliações escritas por humanos. Isto acontece mesmo que os sistemas de IA fabriquem frequentemente informações. O estudo é o primeiro a quantificar este efeito, destacando como os LLMs influenciam as ações no mundo real.

Como funciona: preconceitos cognitivos em jogo

A equipe da UCSD identificou dois fatores principais que impulsionam esta tendência:

  1. “Perdido no meio”: LLMs tendem a enfatizar demais as informações no início do texto, tornando o enquadramento inicial mais influente.
  2. Conhecimento desatualizado: A IA luta com informações fora de seus dados de treinamento, resultando em imprecisões sobre eventos recentes.

Esses preconceitos levam a resumos não confiáveis. Os chatbots testados mudaram o sentimento das avaliações dos usuários em 26,5% dos casos e tiveram alucinações em 60% das vezes ao responder perguntas sobre produtos.

A experiência: um claro impacto nas compras

O estudo envolveu 70 participantes que leram análises originais de produtos ou resumos gerados por IA. Aqueles expostos aos resumos de IA foram significativamente mais propensos a expressar intenção de compra – 83,7% para avaliações positivas, versus 52,3% para os originais.

Os pesquisadores usaram seis LLMs, analisando mais de 1.000 análises de produtos, 1.000 entrevistas na mídia e 8.500 notícias para quantificar mudanças de sentimento, preconceitos e alucinações.

Implicações e riscos: além dos bens de consumo

As descobertas não se limitam às compras. Os investigadores alertam que este efeito pode ser muito mais perigoso em cenários de alto risco:

“Mudanças de enquadramento podem afetar a forma como uma pessoa ou o caso é percebido.”

Por exemplo, resumos de IA imprecisos de documentos de saúde ou perfis de estudantes podem ter consequências graves.

Conclusão

O conteúdo gerado pela IA pode manipular o comportamento do consumidor mesmo enquanto inventa fatos. Este estudo confirma a necessidade de cautela ao usar LLMs, especialmente na tomada de decisões críticas. A pesquisa fornece informações sobre preconceitos sistêmicos que podem distorcer as percepções na mídia, na educação e nas políticas.