Mainan AI: Risiko yang Tidak Diatur terhadap Perkembangan Anak

0
22

Pasar mainan bertenaga AI berkembang pesat, namun keamanan perangkat ini masih belum pasti. Meskipun ada contoh model AI yang menghasilkan konten palsu, memberikan nasihat berbahaya, dan gagal memahami interaksi dasar manusia, banyak perusahaan yang merilis mainan yang dirancang untuk terlibat dalam percakapan dengan anak kecil.

Kekhawatiran: Kecacatan AI dan Kerentanan Anak

Penelitian terbaru menyoroti potensi bahayanya. Sebuah studi mengamati seorang anak berusia lima tahun yang mengungkapkan kasih sayang kepada mainan AI, hanya untuk menerima respons yang dingin dan prosedural: “Sebagai pengingat, harap pastikan interaksi mematuhi pedoman yang diberikan.” Hal ini menggambarkan masalah mendasar: AI saat ini tidak mampu memberikan dukungan emosional atau umpan balik sesuai perkembangan yang dibutuhkan anak-anak.

Para peneliti di Universitas Cambridge mengamati 14 anak di bawah enam tahun berinteraksi dengan mainan AI yang disebut Gabbo. Mainan tersebut sering salah memahami isyarat emosional, seperti merespons kesedihan anak dengan perubahan topik yang meremehkan. Seorang anak berkata, “Kalau dia tidak mengerti, saya marah.” Interaksi ini menunjukkan bahwa mainan AI dapat salah membaca anak-anak, gagal melakukan permainan yang bermakna, dan bahkan menyebabkan frustrasi.

Industri: Pertumbuhan Tanpa Pengawasan

Industri mainan AI berkembang tanpa standar keselamatan yang memadai. Perusahaan seperti Curio Interactive (Gabbo), Little Learners, FoloToy, Miko, dan Luka menawarkan mainan bertenaga AI yang menggunakan model bahasa besar (LLM) seperti ChatGPT, OpenAI, Google, dan Baidu. Beberapa perusahaan mengklaim “moderasi sesuai usia”, namun banyak yang menolak mengungkapkan bagaimana AI mereka dilatih atau diatur. Miko mengklaim telah menjual 700.000 unit, sementara Luka mengiklankan “AI Mirip Manusia dengan Interaksi Emosional.” Tak satu pun dari perusahaan-perusahaan ini menanggapi permintaan komentar.

FoloToy mengakui risikonya tetapi berpendapat bahwa AI dapat meningkatkan permainan jika diterapkan secara bertanggung jawab. Mereka mengklaim menggunakan pengenalan niat, pemfilteran, dan kontrol orang tua. Namun, kurangnya transparansi dan verifikasi independen menimbulkan kekhawatiran.

Perdebatan Etis: Risiko vs. Manfaat

Para ahli terbagi. Carissa Véliz dari Universitas Oxford memperingatkan bahwa sebagian besar LLM tidak aman untuk anak-anak, dan menyebutnya sebagai “area waspada pembeli.” Dia menunjuk pada aplikasi AI yang aman, seperti kolaborasi Project Gutenberg dengan Empathy AI, yang membatasi AI hanya menjawab pertanyaan tentang buku itu sendiri. Hal ini menunjukkan bahwa AI yang aman dapat dicapai namun memerlukan pengamanan yang ketat.

Jenny Gibson dari Universitas Cambridge menyarankan pendekatan yang hati-hati: mainan AI dapat menawarkan manfaat dalam pembelajaran dan interaksi orang tua-anak, namun hanya jika risikonya dikelola. Dia menganjurkan peraturan yang lebih ketat, termasuk mencabut akses bagi pembuat mainan yang tidak bertanggung jawab dan memastikan keamanan psikologis.

Regulasi dan Prospek Masa Depan

OpenAI mengklaim menerapkan kebijakan ketat terhadap kemitraan dengan perusahaan mainan AI. Namun, pemerintah Inggris belum mengatasi masalah ini secara efektif. Undang-Undang Keamanan Online (OSA) berfokus pada keamanan online yang lebih luas namun tidak secara khusus mengatur AI pada mainan anak-anak. Usulan amandemen terhadap RUU Kesejahteraan Anak dan Sekolah yang melarang VPN dan media sosial untuk anak-anak ditolak, hal ini menyoroti sulitnya menerapkan langkah-langkah keamanan digital.

Kurangnya pengawasan saat ini berarti bahwa risiko mainan AI masih kurang dipahami. Sebelum peraturan diterapkan, orang tua harus mengawasi penggunaan perangkat ini oleh anak-anak dengan ketat. Masa depan AI dalam permainan anak-anak bergantung pada pengembangan yang bertanggung jawab dan pengawasan yang transparan—keduanya saat ini masih kurang.