Los resúmenes generados por IA impulsan las compras a pesar de la alta tasa de errores

0
8

Es más probable que las personas compren productos después de leer resúmenes generados por inteligencia artificial (IA), a pesar de que estos resúmenes alucinan hechos en el 60% de los casos. Un nuevo estudio de la Universidad de California, San Diego (UCSD), muestra que los sesgos cognitivos en los modelos de lenguaje grandes (LLM) impactan directamente en el comportamiento del consumidor, lo que genera preocupaciones sobre decisiones de compra distorsionadas.

El hallazgo principal: confianza en la IA a pesar de la inexactitud

La investigación, presentada en una reciente conferencia sobre procesamiento del lenguaje natural, encontró que los participantes expresaron un 84 % de interés en comprar productos después de leer resúmenes de reseñas en línea generados por IA, en comparación con solo un 52 % de interés cuando leyeron reseñas escritas por humanos. Esto sucede a pesar de que los sistemas de inteligencia artificial frecuentemente fabrican información. El estudio es el primero en cuantificar este efecto y destaca cómo los LLM influyen en las acciones del mundo real.

Cómo funciona: sesgos cognitivos en juego

El equipo de UCSD identificó dos factores clave que impulsan esta tendencia:

  1. “Perdido en el medio”: Los LLM tienden a enfatizar demasiado la información al comienzo del texto, lo que hace que el encuadre inicial sea más influyente.
  2. Conocimiento desactualizado: La IA tiene problemas con información fuera de sus datos de entrenamiento, lo que genera imprecisiones sobre eventos recientes.

Estos sesgos dan lugar a resúmenes poco fiables. Los chatbots probados cambiaron el sentimiento de las opiniones de los usuarios en 26,5% de los casos y alucinaron 60% de las veces al responder preguntas sobre productos.

El experimento: un claro impacto en las compras

En el estudio participaron 70 participantes que leyeron reseñas de productos originales o resúmenes generados por IA. Aquellos expuestos a resúmenes de IA tenían significativamente más probabilidades de expresar su intención de compra: 83,7% para las reseñas positivas, frente a 52,3% para los originales.

Los investigadores utilizaron seis LLM y analizaron más de 1000 reseñas de productos, 1000 entrevistas con los medios y 8500 noticias para cuantificar los cambios de sentimiento, los prejuicios y las alucinaciones.

Implicaciones y riesgos: más allá de los bienes de consumo

Los hallazgos no se limitan a las compras. Los investigadores advierten que este efecto podría ser mucho más peligroso en escenarios de alto riesgo:

“Los cambios de encuadre pueden afectar la forma en que se percibe a una persona o al caso”.

Por ejemplo, los resúmenes inexactos de la IA de documentos sanitarios o perfiles de estudiantes podrían tener graves consecuencias.

Conclusión

El contenido generado por IA puede manipular el comportamiento del consumidor incluso mientras inventa hechos. Este estudio confirma la necesidad de tener precaución al utilizar LLM, especialmente en la toma de decisiones críticas. La investigación proporciona información sobre los sesgos sistémicos que pueden distorsionar las percepciones en los medios, la educación y las políticas.