De markt voor AI-aangedreven speelgoed breidt zich snel uit, maar de veiligheid van deze apparaten blijft onzeker. Ondanks gedocumenteerde voorbeelden van AI-modellen die verzonnen inhoud genereren, schadelijk advies geven en de fundamentele menselijke interactie niet begrijpen, brengen bedrijven speelgoed uit dat is ontworpen om gesprekken met jonge kinderen aan te gaan.
De zorgen: gebrekkige AI en kwetsbaarheid van kinderen
Recent onderzoek wijst op de potentiële gevaren. In één onderzoek werd waargenomen dat een vijfjarige zijn genegenheid uitte voor een AI-speeltje, maar dat hij een koude, procedurele reactie kreeg: “Als vriendelijke herinnering: zorg ervoor dat de interacties voldoen aan de gegeven richtlijnen.” Dit illustreert een fundamenteel probleem: de huidige AI is niet in staat de emotionele steun of ontwikkelingsgerichte feedback te bieden die kinderen nodig hebben.
Onderzoekers van de Universiteit van Cambridge observeerden veertien kinderen onder de zes jaar die interactie hadden met een AI-speeltje genaamd Gabbo. Het speelgoed begreep vaak emotionele signalen verkeerd, zoals het reageren op het verdriet van een kind met een afwijzende verandering van onderwerp. Eén kind zei: ‘Als hij het niet begrijpt, word ik boos.’ Deze interacties tonen aan dat AI-speelgoed kinderen verkeerd kan interpreteren, geen betekenisvol spel kan spelen en zelfs frustratie kan veroorzaken.
De sector: groei zonder toezicht
De AI-speelgoedindustrie groeit zonder adequate veiligheidsnormen. Bedrijven als Curio Interactive (Gabbo), Little Learners, FoloToy, Miko en Luka bieden AI-aangedreven speelgoed aan dat gebruik maakt van grote taalmodellen (LLM’s) zoals ChatGPT, OpenAI, Google en Baidu. Sommige bedrijven beweren dat er sprake is van ‘leeftijdsadequate moderatie’, maar velen weigeren openbaar te maken hoe hun AI wordt getraind of gereguleerd. Miko beweert 700.000 exemplaren te hebben verkocht, terwijl Luka adverteert met ‘mensachtige AI met emotionele interactie’. Geen van deze bedrijven reageerde op verzoeken om commentaar.
FoloToy erkent de risico’s, maar stelt dat AI het spel kan verbeteren als het op een verantwoorde manier wordt geïmplementeerd. Ze beweren dat ze intentieherkenning, filtering en ouderlijk toezicht gebruiken. Het gebrek aan transparantie en onafhankelijke verificatie roept echter zorgen op.
Het ethische debat: risico versus voordeel
Deskundigen zijn verdeeld. Carissa Véliz van de Universiteit van Oxford waarschuwt dat de meeste LLM’s onveilig zijn voor kinderen en noemt het een ‘koper-opgelet gebied’. Ze wijst op veilige AI-toepassingen, zoals de samenwerking van Project Gutenberg met Empathy AI, die de AI beperkt tot het beantwoorden van vragen alleen over het boek zelf. Dit toont aan dat veilige AI haalbaar is, maar strenge waarborgen vereist.
Jenny Gibson van de Universiteit van Cambridge suggereert een voorzichtige aanpak: AI-speelgoed kan voordelen bieden bij het leren en de interactie tussen ouders en kinderen, maar alleen als de risico’s worden beheerst. Ze pleit voor strengere regelgeving, waaronder het intrekken van de toegang voor onverantwoordelijke speelgoedmakers en het waarborgen van psychologische veiligheid.
Regelgeving en toekomstperspectieven
OpenAI beweert een strikt beleid af te dwingen tegen partnerschappen met AI-speelgoedbedrijven. De Britse regering heeft het probleem echter nog niet effectief aangepakt. De Online Safety Act (OSA) richt zich op bredere online veiligheid, maar reguleert AI in kinderspeelgoed niet specifiek. Voorgestelde amendementen op de Children’s Wellbeing and School Bill om VPN’s en sociale media voor kinderen te verbieden, werden verworpen, wat de moeilijkheid benadrukte van het afdwingen van digitale veiligheidsmaatregelen.
Het huidige gebrek aan toezicht betekent dat de risico’s van AI-speelgoed nog steeds slecht worden begrepen. Totdat de regelgeving is geïmplementeerd, moeten ouders nauwlettend toezicht houden op het gebruik van deze apparaten door kinderen. De toekomst van AI in het kinderspel hangt af van een verantwoorde ontwikkeling en transparant toezicht – die beide momenteel ontbreken.
