Ринок іграшок зі штучним інтелектом швидко розширюється, але безпека цих пристроїв залишається під питанням. Незважаючи на задокументовані випадки, коли ІІ-моделі генерують вигаданий контент, дають шкідливі поради та не розуміють базових людських взаємодій, компанії випускають іграшки, призначені для спілкування з маленькими дітьми.
Проблеми: Недосконалий ІІ та Вразливість Дітей
Нещодавні дослідження наголошують на потенційній небезпеці. В одному дослідженні п’ятирічна дитина висловила прихильність до іграшки з ІІ, отримавши у відповідь холодну, процедурну відповідь: «Як дружнє нагадування, будь ласка, переконайтеся, що взаємодії відповідають наданим рекомендаціям». Це ілюструє фундаментальну проблему: сучасний ІІ не здатний забезпечити емоційну підтримку чи зворотний зв’язок, що відповідає рівню розвитку дитини.
Дослідники з Кембриджського університету спостерігали за 14 дітьми молодше шести років, які взаємодіють з ІІ-іграшкою під назвою Gabbo. Іграшка часто неправильно розуміла емоційні сигнали, наприклад, відповідаючи на сум дитини різкою зміною теми. Одна дитина сказала: «Коли вона не розуміє, я злюся». Ці взаємодії показують, що ІІ-іграшки можуть неправильно інтерпретувати дітей, не брати участь у змістовній грі та навіть викликати розчарування.
Індустрія: Зростання Без Контролю
Індустрія ІІ-іграшок зростає без належних стандартів безпеки. Компанії, такі як Curio Interactive (Gabbo), Little Learners, FoloToy, Miko та Luka, пропонують іграшки зі штучним інтелектом, що використовують великі мовні моделі (LLM), такі як ChatGPT, OpenAI, Google та Baidu. Деякі фірми заявляють про «вікову модерацію», але багато хто відмовляється розкривати, як навчається чи регулюється їх ІІ. Miko стверджує, що продала 700 000 одиниць, а Luka рекламує “ІІ, схожий на людину, з емоційною взаємодією”. Жодна з цих компаній не відповіла на запити щодо коментарів.
FoloToy визнає ризики, але стверджує, що ІІ може покращити гру, якщо його використовувати відповідально. Вони заявляють, що використовують розпізнавання намірів, фільтрацію та батьківський контроль. Однак відсутність прозорості та незалежної перевірки викликає побоювання.
Етична Дискусія: Ризик Проти Користування
Експерти розходяться у думках. Карісса Веліз з Оксфордського університету попереджає, що більшість LLM є небезпечними для дітей, називаючи це «зоною, де покупець сам за себе». Вона вказує на безпечні застосування ІІ, такі як співпраця Project Gutenberg з Empathy AI, який обмежує ІІ відповідями лише на запитання про книгу. Це демонструє, що безпечний ІІ досягнутий, але потребує суворих заходів безпеки.
Дженні Гібсон з Кембриджського університету пропонує обережний підхід: ІІ-іграшки можуть принести користь у навчанні та взаємодії між батьками та дітьми, але тільки якщо ризики керуватимуться. Вона виступає за більш жорстке регулювання, включаючи позбавлення доступу безвідповідальних виробників іграшок та забезпечення психологічної безпеки.
Регулювання та Перспективи
OpenAI стверджує, що застосовує сувору політику проти партнерства з компаніями, які виробляють ІІ-іграшки. Проте уряд Великобританії ще вирішив цю проблему ефективно. Закон про онлайн-безпеку (OSA) зосереджений на спільній онлайн-безпеці, але не регулює саме ІІ в дитячих іграшках. Пропоновані поправки до законопроекту про благополуччя дітей та школи про заборону VPN та соціальних мереж для дітей були відхилені, що наголошує на труднощі забезпечення цифрової безпеки.
Поточна відсутність нагляду означає, що ризики ІІ-іграшок залишаються погано зрозумілими. До тих пір, поки не будуть прийняті правила, батьки повинні уважно стежити за використанням цих пристроїв дітьми. Майбутнє ІІ у дитячих іграх залежить від відповідальної розробки та прозорого нагляду, чого нині не вистачає.
