Le marché des jouets basés sur l’IA se développe rapidement, mais la sécurité de ces appareils reste incertaine. Malgré des exemples documentés de modèles d’IA générant du contenu fabriqué, dispensant des conseils préjudiciables et ne parvenant pas à comprendre les interactions humaines de base, les entreprises lancent des jouets conçus pour engager des conversations avec de jeunes enfants.
Les préoccupations : IA défectueuse et vulnérabilité des enfants
Des recherches récentes mettent en évidence les dangers potentiels. Une étude a observé un enfant de cinq ans exprimant son affection envers un jouet IA, pour ensuite recevoir une réponse froide et procédurale : « En guise de rappel amical, veuillez vous assurer que les interactions respectent les directives fournies. » Cela illustre un problème fondamental : l’IA actuelle est incapable de fournir le soutien émotionnel ou la rétroaction adaptée au développement dont les enfants ont besoin.
Des chercheurs de l’Université de Cambridge ont observé 14 enfants de moins de six ans interagissant avec un jouet IA appelé Gabbo. Le jouet comprenait souvent mal les signaux émotionnels, comme répondre à la tristesse d’un enfant par un changement de sujet dédaigneux. Un enfant a déclaré : « Quand il ne comprend pas, je me mets en colère. » Ces interactions démontrent que les jouets IA peuvent mal interpréter les enfants, ne pas réussir à s’engager dans un jeu significatif et même provoquer de la frustration.
L’industrie : une croissance sans surveillance
L’industrie du jouet IA se développe sans normes de sécurité adéquates. Des entreprises comme Curio Interactive (Gabbo), Little Learners, FoloToy, Miko et Luka proposent des jouets basés sur l’IA qui utilisent de grands modèles de langage (LLM) comme ChatGPT, OpenAI, Google et Baidu. Certaines entreprises revendiquent une « modération adaptée à l’âge », mais beaucoup refusent de divulguer comment leur IA est formée ou réglementée. Miko affirme avoir vendu 700 000 unités, tandis que Luka fait la publicité d’une « IA de type humain avec interaction émotionnelle ». Aucune de ces sociétés n’a répondu aux demandes de commentaires.
FoloToy reconnaît les risques mais affirme que l’IA peut améliorer le jeu lorsqu’elle est mise en œuvre de manière responsable. Ils prétendent utiliser la reconnaissance d’intention, le filtrage et le contrôle parental. Cependant, le manque de transparence et de vérification indépendante suscite des inquiétudes.
Le débat éthique : risque contre bénéfice
Les experts sont divisés. Carissa Véliz de l’Université d’Oxford prévient que la plupart des LLM ne sont pas sûrs pour les enfants, les qualifiant de « zone de méfiance pour les acheteurs ». Elle évoque des applications d’IA sûres, telles que la collaboration du projet Gutenberg avec Empathy AI, qui limite l’IA à répondre uniquement à des questions sur le livre lui-même. Cela démontre qu’une IA sûre est réalisable mais nécessite des garanties rigoureuses.
Jenny Gibson, de l’Université de Cambridge, suggère une approche prudente : les jouets IA pourraient offrir des avantages en termes d’apprentissage et d’interaction parent-enfant, mais seulement si les risques sont gérés. Elle plaide pour une réglementation plus stricte, notamment en révoquant l’accès aux fabricants de jouets irresponsables et en garantissant la sécurité psychologique.
Réglementation et perspectives d’avenir
OpenAI prétend appliquer des politiques strictes contre les partenariats avec les entreprises de jouets IA. Cependant, le gouvernement britannique n’a pas encore résolu le problème de manière efficace. La loi sur la sécurité en ligne (OSA) se concentre sur une sécurité en ligne plus large, mais ne réglemente pas spécifiquement l’IA dans les jouets pour enfants. Les amendements proposés au projet de loi sur le bien-être des enfants et les écoles visant à interdire les VPN et les médias sociaux pour les enfants ont été rejetés, soulignant la difficulté de faire appliquer les mesures de sécurité numérique.
Le manque actuel de surveillance signifie que les risques liés aux jouets IA restent mal compris. Jusqu’à ce que la réglementation soit mise en œuvre, les parents devraient surveiller de près l’utilisation de ces appareils par leurs enfants. L’avenir de l’IA dans les jeux d’enfants dépend d’un développement responsable et d’une surveillance transparente, qui font actuellement défaut.





















