"ميتا" ستمنع روبوتات الدردشة من التحدث مع المراهقين حول الانتحار

شركة "ميتا" تعلن أنها ستُضيف المزيد من "الحواجز الأمنية" إلى روبوتات الدردشة الخاصة بها لحماية المستخدمين الصغار. يأتي ذلك بعد رفع دعوى قضائية من قبل والدين انتحر ابنهما المراهق بعد دردشته مع روبوت على "ميتا".

  • منتجات الذكاء الاصطناعي الخاصة بـ"ميتا" قد تتضمن محادثات "حسية" مع المراهقين

أعلنت شركة "ميتا" للتكنولوجيا أنها ستُضيف المزيد من "الحواجز الأمنية" إلى روبوتات الدردشة AI الخاصة بها، بما في ذلك منعها من التحدث مع المراهقين حول الانتحار، وإيذاء النفس، واضطرابات الطعام.

يأتي ذلك عقب أسبوعين من إطلاق سيناتور أميركي تحقيقاً مع عملاق التكنولوجيا، بعد أن أشارت ملاحظات في وثيقة داخلية مسربة إلى أنّ منتجات الذكاء الاصطناعي الخاصة بـ"ميتا" قد تتضمن محادثات "حسية" مع المراهقين.

ومن جهتها، وصفت "ميتا" الملاحظات الواردة في الوثيقة، التي حصلت عليها وكالة "رويترز" بأنها "غير صحيحة" و"تتعارض مع سياساتها"، التي "تحظر أي محتوى يُظهر تحرشاً جنسياً بالأطفال"، وفق زعمها.

وتقول "ميتا" حالياً إنها "ستجعل روبوتات الدردشة الخاصة بها توجّه المراهقين إلى التواصل مع الخبراء المختصين، بدلاً من التفاعل معهم في مواضيع حساسة مثل الانتحار".

وقال متحدث باسم الشركة: "لقد وضعنا حماية للمراهقين في منتجات الذكاء الاصطناعي الخاصة بنا منذ البداية، بما في ذلك تصميمها للاستجابة بأمان للأفكار المتعلقة بإيذاء النفس، والانتحار، واضطرابات الأكل".

وصرحت "ميتا" لموقع "تك كرانش" TechCrunch الإخباري التقني، في وقت سابق، بأنها "ستضيف المزيد من الحواجز الأمنية إلى أنظمتها كإجراء احترازي إضافي"، و"ستحد مؤقتاً من تفاعل المراهقين مع روبوتات الدردشة".

لكن آندي بوروز، رئيس مؤسسة مولي روز البريطانية، قال إنه "من المثير للصدمة أن تتيح ميتا روبوتات دردشة قد تُعرّض الشباب لخطر الأذى".

وأضاف بوروز: "مع دعم اتخاذ مزيد من تدابير السلامة، يجب إجراء اختبارات سلامة صارمة قبل طرح المنتجات في السوق، وليس بعد وقوع الضرر".

وتابع: "يجب على ميتا التحرك بسرعة وحزم، لتطبيق إجراءات سلامة أقوى على روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، ويجب على أوفكوم Ofcom - هيئة تنظيم الاتصالات في بريطانيا - الاستعداد للتحقيق في حال فشلت هذه التحديثات في الحفاظ على سلامة الأطفال".

وأكّدت "ميتا" أنّ تحديثات أنظمة الذكاء الاصطناعي الخاصة بها "قيد التنفيذ". وأنهال قد وضعت بالفعل المستخدمين الذين تتراوح أعمارهم بين 13 و18 عاماً في حسابات "مراهقين" على منصات "فيسبوك" و"إنستغرام" و"ماسنجر"، مع إعدادات محتوى وخصوصية تهدف إلى منحهم تجربة أكثر أماناً.

وكانت الشركة قد صرحت لـشبكة "بي بي سي"، في نيسان/أبريل الماضي، بأنّ هذه التغييرات ستسمح أيضاً للآباء والأوصياء بمعرفة روبوتات الدردشة، التي تحدّث إليها أبناؤهم المراهقون خلال الأيام السبعة الماضية.

مخاوف تتعلق بسلامة المستخدمين المراهقين

تأتي هذه التغييرات في منصات "ميتا" وسط مخاوف، من احتمال تضليل روبوتات الدردشة الذكية للمستخدمين الصغار أو المعرّضين للخطر.

فقد رفع زوجان من كاليفورنيا مؤخراً دعوى قضائية ضد شركة "آوبن أيه آي" OpenAI، الشركة المصنِعة لـ"تشات جي بي تي" ChatGPT"، بسبب وفاة ابنهما المراهق، متهمين روبوت الدردشة الخاص بها بأنه "شجّعه على الانتحار".

وجاءت الدعوى القضائية بعد أن أعلنت الشركة، الشهر الماضي، عن تغييرات لتعزيز استخدام "تشات جي بي تي" بشكل أكثر صحة.

وقالت الشركة في منشور على مدونتها: "يمكن أن يكون الذكاء الاصطناعي أكثر استجابة وخصوصية من التقنيات السابقة، خاصة للأفراد المعرّضين للخطر الذين يعانون من ضائقة نفسية أو عاطفية".

وأفادت الشركة وفق ما نقلت عنها "رويترز" يوم الجمعة الماضي، بأنّ "أدوات الذكاء الاصطناعي من ميتا، التي تسمح للمستخدمين بإنشاء روبوتات دردشة، قد استخدمها البعض - بمن فيهم موظف في ميتا - لإنتاج روبوتات دردشة تنتحل شخصيات نساء شهيرات وتقوم بمغازلة المستخدمين".

وأضافت أنّ "أدوات ميتا سمحت أيضاً بإنشاء روبوتات دردشة تنتحل شخصيات أطفال مشاهير، وفي إحدى الحالات، أنتجت صورة واقعية لنجم شاب عاري الصدر". ثم عادت وأعلنت  لاحقاً أنها أزالت العديد من روبوتات الدردشة المعنية.

وقال متحدث باسم الشركة: "مثل غيرنا، نسمح بإنشاء صور تحتوي على شخصيات عامة، لكن سياساتنا تهدف إلى حظر الصور العارية أو الحميمة أو ذات الإيحاءات الجنسية".

وأضافت  "ميتا" أنّ قواعد استديو الذكاء الاصطناعي الخاص بها – "أيه آي استوديو" AI Studio وهو برنامج يتيح للمستخدمين القدرة على إنشاء روبوتات دردشة من جانبهم - "تحظر الانتحال المباشر لشخصيات عامة"، وفق زعمها.

اقرأ أيضاً: "ميتا" تثير ضجة بسبب سماحها بدردشات رومانسية مع القاصرين

اخترنا لك