Рынок игрушек с искусственным интеллектом стремительно расширяется, но безопасность этих устройств остается под вопросом. Несмотря на задокументированные случаи, когда ИИ-модели генерируют вымышленный контент, дают вредные советы и не понимают базовых человеческих взаимодействий, компании выпускают игрушки, предназначенные для общения с маленькими детьми.
Проблемы: Несовершенный ИИ и Уязвимость Детей
Недавние исследования подчеркивают потенциальную опасность. В одном исследовании пятилетний ребенок выразил привязанность к игрушке с ИИ, получив в ответ холодный, процедурный ответ: «В качестве дружеского напоминания, пожалуйста, убедитесь, что взаимодействия соответствуют предоставленным рекомендациям». Это иллюстрирует фундаментальную проблему: современный ИИ не способен обеспечить эмоциональную поддержку или обратную связь, соответствующую уровню развития ребенка.
Исследователи из Кембриджского университета наблюдали за 14 детьми младше шести лет, взаимодействующими с ИИ-игрушкой под названием Gabbo. Игрушка часто неправильно понимала эмоциональные сигналы, например, отвечая на печаль ребенка резкой сменой темы. Один ребенок сказал: «Когда он не понимает, я злюсь». Эти взаимодействия показывают, что ИИ-игрушки могут неправильно интерпретировать детей, не участвовать в содержательной игре и даже вызывать разочарование.
Индустрия: Рост Без Контроля
Индустрия ИИ-игрушек растет без надлежащих стандартов безопасности. Компании, такие как Curio Interactive (Gabbo), Little Learners, FoloToy, Miko и Luka, предлагают игрушки с искусственным интеллектом, использующие большие языковые модели (LLM), такие как ChatGPT, OpenAI, Google и Baidu. Некоторые фирмы заявляют о «возрастной модерации», но многие отказываются раскрывать, как обучается или регулируется их ИИ. Miko утверждает, что продала 700 000 единиц, а Luka рекламирует «ИИ, похожий на человека, с эмоциональным взаимодействием». Ни одна из этих компаний не ответила на запросы о комментариях.
FoloToy признает риски, но утверждает, что ИИ может улучшить игру, если его использовать ответственно. Они заявляют, что используют распознавание намерений, фильтрацию и родительский контроль. Однако отсутствие прозрачности и независимой проверки вызывает опасения.
Этическая Дискуссия: Риск Против Пользы
Эксперты расходятся во мнениях. Карисса Велиз из Оксфордского университета предупреждает, что большинство LLM небезопасны для детей, называя это «зоной, где покупатель сам за себя». Она указывает на безопасные применения ИИ, такие как сотрудничество Project Gutenberg с Empathy AI, который ограничивает ИИ ответами только на вопросы о книге. Это демонстрирует, что безопасный ИИ достижим, но требует строгих мер безопасности.
Дженни Гибсон из Кембриджского университета предлагает осторожный подход: ИИ-игрушки могут принести пользу в обучении и взаимодействии между родителями и детьми, но только если риски будут управляться. Она выступает за более жесткое регулирование, включая лишение доступа безответственных производителей игрушек и обеспечение психологической безопасности.
Регулирование и Перспективы
OpenAI утверждает, что применяет строгую политику против партнерства с компаниями, производящими ИИ-игрушки. Однако правительство Великобритании еще не решило эту проблему эффективно. Закон об онлайн-безопасности (OSA) сосредоточен на общей онлайн-безопасности, но не регулирует конкретно ИИ в детских игрушках. Предлагаемые поправки к законопроекту о благополучии детей и школах о запрете VPN и социальных сетей для детей были отклонены, что подчеркивает трудности обеспечения цифровой безопасности.
Текущее отсутствие надзора означает, что риски ИИ-игрушек остаются плохо понятыми. До тех пор, пока не будут приняты правила, родители должны внимательно следить за использованием этих устройств детьми. Будущее ИИ в детских играх зависит от ответственной разработки и прозрачного надзора, чего в настоящее время не хватает.





















