KI-Spielzeug: Das unregulierte Risiko für die Entwicklung von Kindern

0
8

Der Markt für KI-gesteuerte Spielzeuge wächst rasant, doch die Sicherheit dieser Geräte bleibt ungewiss. Obwohl es dokumentierte Fälle gibt, in denen KI-Modelle erfundene Inhalte generieren, schädliche Ratschläge geben und grundlegende menschliche Interaktionen nicht verstehen, bringen Unternehmen Spielzeuge auf den Markt, die darauf ausgelegt sind, Gespräche mit kleinen Kindern zu führen.

Die Bedenken: Fehlerhafte KI und Sicherheitslücke bei Kindern

Aktuelle Forschungsergebnisse verdeutlichen die potenziellen Gefahren. In einer Studie wurde beobachtet, wie ein Fünfjähriger seine Zuneigung zu einem KI-Spielzeug zum Ausdruck brachte, nur um eine kalte, prozedurale Antwort zu erhalten: „Als freundliche Erinnerung: Bitte stellen Sie sicher, dass die Interaktionen den bereitgestellten Richtlinien entsprechen.“ Dies verdeutlicht ein grundlegendes Problem: Die derzeitige KI ist nicht in der Lage, Kindern die emotionale Unterstützung oder das entwicklungsgerechte Feedback zu geben, das sie benötigen.

Forscher der Universität Cambridge beobachteten, wie 14 Kinder unter sechs Jahren mit einem KI-Spielzeug namens Gabbo interagierten. Das Spielzeug missverstand häufig emotionale Signale, beispielsweise reagierte es auf die Traurigkeit eines Kindes mit einem abweisenden Themenwechsel. Ein Kind sagte: „Wenn es es nicht versteht, werde ich wütend.“ Diese Interaktionen zeigen, dass KI-Spielzeuge Kinder falsch interpretieren, sie nicht an sinnvollen Spielen beteiligen und sogar Frustration hervorrufen können.

Die Branche: Wachstum ohne Kontrolle

Die KI-Spielzeugindustrie wächst ohne angemessene Sicherheitsstandards. Unternehmen wie Curio Interactive (Gabbo), Little Learners, FoloToy, Miko und Luka bieten KI-gestützte Spielzeuge an, die große Sprachmodelle (LLMs) wie ChatGPT, OpenAI, Google und Baidu verwenden. Einige Firmen behaupten „altersgerechte Moderation“, doch viele weigern sich, offenzulegen, wie ihre KI trainiert oder reguliert wird. Miko gibt an, 700.000 Einheiten verkauft zu haben, während Luka mit „menschenähnlicher KI mit emotionaler Interaktion“ wirbt. Keines dieser Unternehmen reagierte auf Anfragen nach Kommentaren.

FoloToy erkennt die Risiken an, argumentiert jedoch, dass KI das Spiel verbessern kann, wenn sie verantwortungsvoll eingesetzt wird. Sie behaupten, Absichtserkennung, Filterung und Kindersicherung zu nutzen. Der Mangel an Transparenz und unabhängiger Überprüfung gibt jedoch Anlass zur Sorge.

Die ethische Debatte: Risiko vs. Nutzen

Experten sind geteilter Meinung. Carissa Véliz von der Universität Oxford warnt davor, dass die meisten LLM-Studiengänge für Kinder unsicher seien, und nennt es einen „Käufer-Vorsichtsbereich“. Sie weist auf sichere KI-Anwendungen hin, wie etwa die Zusammenarbeit von Project Gutenberg mit Empathy AI, die die KI darauf beschränkt, nur Fragen zum Buch selbst zu beantworten. Dies zeigt, dass eine sichere KI erreichbar ist, aber strenge Schutzmaßnahmen erfordert.

Jenny Gibson von der Universität Cambridge schlägt einen vorsichtigen Ansatz vor: KI-Spielzeuge könnten Vorteile beim Lernen und bei der Eltern-Kind-Interaktion bieten, aber nur, wenn die Risiken beherrscht werden. Sie plädiert für eine strengere Regulierung, einschließlich der Sperrung des Zugangs für unverantwortliche Spielzeughersteller und der Gewährleistung psychologischer Sicherheit.

Regulierung und Zukunftsaussichten

OpenAI behauptet, strenge Richtlinien gegen Partnerschaften mit KI-Spielzeugunternehmen durchzusetzen. Allerdings muss die britische Regierung das Problem noch wirksam angehen. Das Online Safety Act (OSA) konzentriert sich auf eine umfassendere Online-Sicherheit, regelt jedoch nicht speziell die KI in Kinderspielzeug. Änderungsvorschläge zum Kinderwohl- und Schulgesetz zum Verbot von VPNs und sozialen Medien für Kinder wurden abgelehnt, was die Schwierigkeit der Durchsetzung digitaler Sicherheitsmaßnahmen verdeutlichte.

Der derzeitige Mangel an Aufsicht führt dazu, dass die Risiken von KI-Spielzeugen noch immer kaum verstanden werden. Bis die Vorschriften umgesetzt werden, sollten Eltern die Verwendung dieser Geräte durch ihre Kinder genau überwachen. Die Zukunft der KI im Kinderspiel hängt von einer verantwortungsvollen Entwicklung und einer transparenten Aufsicht ab – beides fehlt derzeit.