AI-Сгенерированные Обзоры Стимулируют Покупки, Несмотря на Высокий Процент Ошибок

0
5

Люди с большей вероятностью покупают товары после прочтения обзоров, сгенерированных искусственным интеллектом (ИИ), даже если эти обзоры выдают выдуманные факты в 60% случаев. Новое исследование Калифорнийского университета в Сан-Диего (UCSD) показывает, что когнитивные искажения в больших языковых моделях (LLM) напрямую влияют на поведение потребителей, вызывая опасения по поводу искажённых решений о покупках.

Главный Вывод: Доверие к ИИ, Несмотря на Неточность

Исследование, представленное на недавней конференции по обработке естественного языка, показало, что участники выразили 84%-й интерес к покупке товаров после прочтения обзоров, сгенерированных ИИ, по сравнению с всего лишь 52%-м интересом, когда читали обзоры, написанные людьми. Это происходит даже несмотря на то, что ИИ-системы часто фабрикуют информацию. Это первое исследование, которое количественно оценило этот эффект, подчёркивая, как LLM влияют на реальные действия.

Как Это Работает: Когнитивные Искажения в Действии

Команда UCSD выявила два ключевых фактора, определяющих эту тенденцию:

  1. «Потерянное в Середине»: LLM склонны преувеличивать информацию в начале текста, делая первоначальное оформление более влиятельным.
  2. Устаревшие Знания: ИИ испытывает трудности с информацией, выходящей за рамки его обучающих данных, что приводит к неточностям в отношении недавних событий.

Эти искажения приводят к недостоверным обзорам. Протестированные чат-боты изменили тональность отзывов пользователей в 26,5% случаев и выдавали выдуманные данные в 60% случаев, отвечая на вопросы о товарах.

Эксперимент: Явное Влияние на Покупки

В исследовании приняли участие 70 человек, которые читали либо оригинальные отзывы о продуктах, либо обзоры, сгенерированные ИИ. Те, кто читал обзоры, сгенерированные ИИ, значительно чаще выражали намерение совершить покупку – 83,7% для положительных отзывов против 52,3% для оригиналов.

Исследователи использовали шесть LLM, проанализировав более 1000 отзывов о продуктах, 1000 интервью со СМИ и 8500 новостных статей, чтобы оценить сдвиги в тональности, искажения и галлюцинации.

Последствия и Риски: Выходя за Рамки Потребительских Товаров

Выводы не ограничиваются шопингом. Исследователи предупреждают, что этот эффект может быть гораздо опаснее в ситуациях с высокими ставками:

«Изменения в формулировках могут повлиять на то, как человек или дело воспринимается».

Например, неточные обзоры ИИ медицинских документов или профилей студентов могут иметь серьёзные последствия.

Заключение

Контент, сгенерированный ИИ, может манипулировать потребительским поведением, даже выдумывая факты. Это исследование подтверждает необходимость осторожности при использовании LLM, особенно при принятии критических решений. Исследование даёт представление о системных искажениях, которые могут искажать восприятие в СМИ, образовании и политике.