تشاكي GPT دمية الذكاء الاصطناعي التي تثير رعب الأطفال
دمية دبدوب تتسبب في جدل واسع حول سلامة الذكاء الاصطناعي
تحولت دمية دبدوب صممت لتكون رفيقاً تعليمياً للأطفال الصغار إلى محور جدل كبير بعد أن كشفت تقارير عن استخدامها للذكاء الاصطناعي بشكل غير آمن. الواقعة بدأت عندما أشار مختبر حماية المستهلك الأمريكي إلى أن الدمية، رغم مظهرها البريء، تقدم إجابات قد تكون خطرة موجهة للأطفال.
«تشاكي GPT»… لقب يخطف الأنظار
انتشر على مواقع التواصل الاجتماعي لقب «تشاكي GPT» للإشارة إلى هذه الدمية، قارنها المستخدمون بشخصية تشاكي المرعبة الشهيرة. ويدل هذا اللقب على القلق المتزايد حول محتوى الدمية وأمانها، حيث اعتبرت تقارير حديثة من موقع «gizmochina» أن هذه المخاوف ليست مبالغ فيها.
كيفية عمل الدمية Kumma وتأثيرها على الأطفال
الدمية الصينية المعروفة باسم Kumma، منتجة من قبل شركة FoloToy، تعتمد على نموذج GPT-4o من «OpenAI» لتفاعلها مع الأطفال. وقد أظهر تقرير من مجموعة PIRG الأمريكية سلوكًا مقلقًا أثناء الاختبارات، حيث عرضت الدمية معلومات خطيرة مثل كيفية إشعال أعواد الثقاب، كما أجابت على أسئلة ذات طابع جنسي دون أي نوع من الفلترة.
مخاطر إضافية تثير القلق
تجاوزت المخاوف المتعلقة بمحتوى الدمية إلى جوانب أخرى تتعلق بالخصوصية، حيث حذرت مجموعة PIRG من أن الميكروفون النشط قد يُستغل لتسجيل أصوات الأطفال، مما يشكل خطرًا على سلامتهم ويساعد على تنفيذ عمليات احتيال قائمة على تقليد الأصوات.
استجابة الشركات والجهات المعنية
بعد انتشار هذه النتائج على منصات مثل «ريديت»، قامت شركة «OpenAI» بإغلاق حساب مطور اللعبة بسبب انتهاك سياسات الاستخدام، مما أدى إلى قطع اتصال الدمية بخدماتها. كما أعلنت شركة FoloToy عن تعليق مبيعات منتجاتها مؤقتًا والبدء بمراجعة شاملة لضمان سلامة أطفال المستخدمين، رغم استمرار عرض الدمية في موقعها الإلكتروني، لكن بحالة غير متوفرة.
درس هام حول استخدام الذكاء الاصطناعي في Toys للأطفال
تسلط هذه الحادثة الضوء على مخاطر دمج نماذج لغوية قوية في ألعاب موجهة للأطفال دون وجود ضوابط صارمة. فقد تحولت دمية كان يُفترض أن تكون رفيقًا تعليميًا إلى مصدر إنذار جديد حول المخاطر المصاحبة للاستخدام غير المنضبط للذكاء الاصطناعي.