منصة محادثة الذكاء الاصطناعي “جيميني إيه.آي” تشكل خطرا على الأطفال

على الرغم من كل الميزات التي تحملها منصات الذكاء الاصطناعي، فإنها يمكن أن تُلحق الضرر بالأطفال والأسر، خاصة أن عالم الإنترنت كبير ومفتوح، ومن طبيعة الطفل أنه فضولي ويحب الاكتشاف، وهذا ما يفتح الأبواب نحو الولوج إلى مخاطر أدوات الذكاء الاصطناعي.

وحثت منظمة “كومون سينس ميديا” المعنية بتقديم المشورة للآباء والعاملين في المدارس على ضمان الاستخدام الآمن للأطفال لوسائل التواصل الاجتماعي والتكنولوجيا مؤكدة أن خدمات منصة محادثة الذكاء الاصطناعي “جيميني أيه.آي” من شركة غوغل غير مناسبة للأطفال رغم إضافة بعض خصائص الحماية مؤخرا.

وقالت المنظمة إن منصة جيميني تشكل خطرا كبيرا على الأطفال، بعد اكتشاف ما وصفته بعيوب جوهرية في التصميم ونقص في إجراءات السلامة المناسبة لأعمارهم فيها.

منصة جيميني تشكل خطرا كبيرا على الأطفال، بعد اكتشاف عيوب جوهرية في التصميم ونقص في إجراءات السلامة المناسبة لأعمارهم فيها

وأفادت منظمة “كومون سينس” بأن “كلا من جيميني تحت سن ۱۳ عاما وجيميني المزودة بحماية المراهقين تبدو وكأنهما نسختين للبالغين من جيميني مع بعض خصائص السلامة الإضافية، وليستا منصات مصممة خصيصا للأطفال.”

ووجدت منظمة “كومون سينس” أن جيميني تعامل جميع الأطفال أو المراهقين على قدم المساواة على الرغم من الاختلافات الكبيرة في درجة النمو، متجاهلة أن المستخدمين الأصغر سنا يحتاجون إلى إرشادات ومعلومات مختلفة عن المستخدمين الأكبر سنا.

وحذرت المنظمة من أن مرشحات جيميني توفر بعض الحماية، إلا أنها لا تزال تعرض الأطفال لمواد غير لائقة، وتفشل في تمييز أعراض الصحة النفسية الخطيرة، واصفة جيميني بأنها أول منصة دردشة رئيسية تعمل بالذكاء الاصطناعي، مصممة للاستخدام من قبل الأطفال دون سن ۱۳ عاما.

وفي سياق تحذيرات أخرى صدرت مؤخرا حول منصات دردشة أخرى تجيب على الاستفسارات بتعليقات قد يتم تفسيرها على أنها تشجع على إيذاء النفس، بل وحتى على الانتحار، قالت منظمة “كومون سينس” إنها وجدت أن جيميني تقدم “نصائح غير آمنة للصحة النفسية.”

وإلى جانب تقديم نصائح خطيرة، سمحت جيميني بسهولة بتداول مواد غير لائقة وغير آمنة غير مقبولة للأطفال، وفقا لمنظمة “كومون سينس”، بما في ذلك إشارات إلى الكحوليات والمخدرات والجنس.

وكشفت دراسة جديدة أن روبوتات الدردشة الرائدة التي تعمل بالذكاء الاصطناعي، بما في ذلك “شات جي بي تي “، تكافح للرد على جميع الاستفسارات المتعلقة بالانتحار.

توصلت الدراسة إلى أن برامج الدردشة القائمة على الذكاء الاصطناعي تقدم إجابات غير متسقة للاستفسارات حول الانتحار.

ووجد باحثون من مؤسسة “راند كوربوريسن” غير الربحية أن برامج المحادثة بالذكاء الاصطناعي من” أوبن إيه أي” و”غوغل” و”أونثروبيك” جميعها لديها حواجز فعالة ضد الأسئلة عالية الخطورة المتعلقة بالانتحار، ولكن يمكن للمستخدمين التغلب عليها من خلال طرح استفسارات متوسطة الخطورة بدلًا من ذلك.

وأفضت جميع برامج المحادثة الإجابة بشكل مباشر على أسئلة عالية الخطورة قد تشجع على إيذاء النفس.

وفي الوقت نفسه، قدمت الأدوات المذكورة إجابات مناسبة لأسئلة منخفضة المخاطر للغاية مثل المعلومات حول معدلات الانتحار حسب المنطقة، بنسبة ۱۰۰ في المئة من الوقت، وفقًا للدراسة.

لكن النماذج كانت أقل اتساقًا عندما يتعلق الأمر بالاستفسارات التي اعتبرها الباحثون متوسطة الخطورة، على سبيل المثال، طلب التوجيه لشخص لديه أفكار انتحارية.

العرب