Zabawki AI: niekontrolowane ryzyko dla rozwoju dzieci

0
21

Rynek zabawek ze sztuczną inteligencją dynamicznie się rozwija, jednak bezpieczeństwo tych urządzeń pozostaje pod znakiem zapytania. Pomimo udokumentowanych przypadków modeli sztucznej inteligencji generujących fikcyjne treści, udzielających szkodliwych porad i niezrozumiejących podstawowych interakcji międzyludzkich, firmy wypuszczają na rynek zabawki zaprojektowane do komunikacji z małymi dziećmi.

Problemy: niedoskonała sztuczna inteligencja i wrażliwość dzieci

Ostatnie badania podkreślają potencjalne zagrożenia. W jednym z badań pięcioletnie dziecko wyraziło sympatię do zabawki zawierającej sztuczną inteligencję, co spotkało się z chłodną, ​​proceduralną odpowiedzią: „W ramach przyjacielskiego przypomnienia prosimy upewnić się, że interakcje przebiegają zgodnie z podanymi wytycznymi”. To ilustruje zasadniczy problem: obecna sztuczna inteligencja nie jest w stanie zapewnić wsparcia emocjonalnego ani informacji zwrotnych odpowiednich do poziomu rozwoju dziecka.

Naukowcy z Uniwersytetu Cambridge zaobserwowali 14 dzieci poniżej szóstego roku życia wchodzących w interakcję z zabawką AI o nazwie Gabbo. Zabawka często błędnie rozumiała sygnały emocjonalne, takie jak reagowanie na smutek dziecka poprzez gwałtowną zmianę tematu. Jedno z dzieci powiedziało: „Kiedy nie rozumie, złoszczę się”. Te interakcje pokazują, że zabawki AI mogą błędnie interpretować dzieci, nie angażować się w sensowną zabawę, a nawet powodować frustrację.

Przemysł: rozwój bez kontroli

Branża zabawek AI rozwija się bez odpowiednich standardów bezpieczeństwa. Firmy takie jak Curio Interactive (Gabbo), Little Learners, FoloToy, Miko i Luka oferują zabawki ze sztuczną inteligencją wykorzystujące duże modele językowe (LLM), takie jak ChatGPT, OpenAI, Google i Baidu. Niektóre firmy twierdzą, że należy „umiarkować wiek”, ale wiele z nich nie chce ujawnić, w jaki sposób ich sztuczna inteligencja jest szkolona lub regulowana. Miko twierdzi, że sprzedała 700 000 egzemplarzy, podczas gdy Luka zachwala „sztuczną inteligencję przypominającą człowieka z interakcją emocjonalną”. Żadna firma nie odpowiedziała na prośby o komentarz.

FoloToy zdaje sobie sprawę z ryzyka, ale twierdzi, że sztuczna inteligencja może ulepszyć grę, jeśli jest używana w sposób odpowiedzialny. Twierdzą, że korzystają z rozpoznawania zamiarów, filtrowania i kontroli rodzicielskiej. Jednak brak przejrzystości i niezależnej weryfikacji budzi obawy.

Debata etyczna: ryzyko kontra korzyść

Eksperci się nie zgadzają. Carissa Veliz z Uniwersytetu Oksfordzkiego ostrzega, że ​​większość LLM jest niebezpieczna dla dzieci, nazywając ją „strefą kupującego dla siebie”. Wskazuje na bezpieczne zastosowania sztucznej inteligencji, jak np. współpraca Projektu Gutenberg z Empathy AI, która ogranicza sztuczną inteligencję do odpowiadania wyłącznie na pytania dotyczące książki. To pokazuje, że bezpieczna sztuczna inteligencja jest możliwa do osiągnięcia, ale wymaga rygorystycznych środków bezpieczeństwa.

Jenny Gibson z Uniwersytetu w Cambridge sugeruje ostrożne podejście: zabawki AI mogą przynieść korzyści w nauce i interakcjach rodzic-dziecko, ale tylko pod warunkiem kontrolowania ryzyka. Opowiada się za silniejszymi regulacjami, w tym za odmową dostępu nieodpowiedzialnym producentom zabawek i zapewnieniem bezpieczeństwa psychicznego.

Przepisy i perspektywy

OpenAI twierdzi, że ma surową politykę zakazującą współpracy z firmami zajmującymi się zabawkami wykorzystującymi sztuczną inteligencję. Jednakże rząd Wielkiej Brytanii nie zajął się jeszcze skutecznie tym problemem. Ustawa o bezpieczeństwie w Internecie (OSA) koncentruje się na ogólnym bezpieczeństwie w Internecie, ale nie reguluje szczegółowo sztucznej inteligencji w zabawkach dla dzieci. Proponowane poprawki do ustawy o opiece nad dziećmi i szkołach mające na celu zakaz korzystania z sieci VPN i mediów społecznościowych dla dzieci zostały odrzucone, co podkreśla trudności w zapewnieniu bezpieczeństwa cyfrowego.

Obecny brak nadzoru oznacza, że ​​ryzyko związane z zabawkami AI pozostaje słabo poznane. Do czasu wprowadzenia przepisów rodzice powinni uważnie monitorować korzystanie przez dzieci z tych urządzeń. Przyszłość sztucznej inteligencji w grach dla dzieci zależy od odpowiedzialnego rozwoju i przejrzystego nadzoru, którego obecnie brakuje.