تسييس الذكاء الاصطناعي: غزة ومعركة تضليل البيانات

أيّ صورة على صلة بالمجازر الإسرائيلية تحجب فوراً على مواقع التواصل الاجتماعي، ولكن الصور المفبركة من قبل نتنياهو التي ادّعى بها قتل المقاومة الفلسطنية للأطفال، لا تحجب أبداً، رغم ثبوت فبركتها.

  • تسييس الذكاء الاصطناعي: غزة ومعركة تضليل البيانات
    تسييس الذكاء الاصطناعي: غزة ومعركة تضليل البيانات

في السنوات الأخيرة، شهدنا تطوّراً هائلاً في مجال الذكاء الاصطناعي والتعلّم الآلي. حيث أصبحت هذه التقنيات جزءاً لا يتجزأ من حياتنا اليومية، وباتت تستخدم في مجموعة متنوّعة من التطبيقات، بما في ذلك:

- التعرّف إلى الصور: تستخدم تقنية التعرّف إلى الصور في أجهزة الهواتف الذكية للتعرّف إلى الأشخاص والأشياء في الصور.

- التعرّف إلى الكلام: تستخدم تقنية التعرّف إلى الكلام في المساعدين الرقميين للتعرّف إلى الأوامر الصوتية.

- الترجمة الآلية: تستخدم تقنية الترجمة الآلية في المتصفّحات لترجمة النصوص من لغة إلى أخرى.

- التشخيص الطبي: تستخدم تقنية الذكاء الاصطناعي في الطب لإنشاء تشخيصات طبية أكثر دقة.

- إدارة المخاطر: تستخدم تقنية الذكاء الاصطناعي في الأعمال التجارية لتحديد مخاطر الأحداث المستقبلية.

على الرغم من الفوائد العديدة للذكاء الاصطناعي والتعلّم الآلي، إلا أن هناك بعض التحديات التي تواجه هذه التقنيات، بما في ذلك:

- التحيّز: يمكن أن تكون أنظمة الذكاء الاصطناعي متحيّزة، مما يؤدي إلى نتائج غير عادلة.

- الخصوصية: يمكن أن تؤدي أنظمة الذكاء الاصطناعي إلى جمع واستخدام بيانات شخصية من دون موافقة الأفراد.

الذكاء الاصطناعي والتحيّز

يعدّ التحيّز مشكلة خطيرة يمكن أن تؤدي إلى نتائج غير عادلة في أنظمة الذكاء الاصطناعي. يمكن أن يكون التحيّز موجوداً في أي مرحلة من مراحل تطوير واستخدام نظام الذكاء الاصطناعي، بما في ذلك:

- البيانات: يمكن أن يكون التحيّز موجوداً في البيانات المستخدمة لتدريب نظام الذكاء الاصطناعي. على سبيل المثال، إذا كانت البيانات المستخدمة لتدريب نظام الذكاء الاصطناعي لتقييم الطلبات الإقراضية تأتي من مجموعة من المتقدّمين الذين هم في الغالب من الرجال ذوي الدخل المرتفع، فقد يؤدي ذلك إلى نظام يميل إلى منح القروض للرجال ذوي الدخل المرتفع.

- الخوارزميات: يمكن أن يكون التحيّز موجوداً في الخوارزميات المستخدمة في نظام الذكاء الاصطناعي. على سبيل المثال، إذا كانت الخوارزمية المستخدمة في نظام الذكاء الاصطناعي لتقييم خطر التعرّض لجريمة تشمل عوامل مثل العِرق أو الدين، فقد يؤدي ذلك إلى نظام يميل إلى تصنيف الأشخاص من أعراق أو ديانات معيّنة على أنهم أكثر خطورة من غيرهم.

- التفسير: يمكن أن يكون التحيّز موجوداً في كيفية تفسير نتائج نظام الذكاء الاصطناعي. على سبيل المثال، إذا أصدر نظام الذكاء الاصطناعي حكماً ضد شخص ما في قضية قانونية، فقد يكون من الصعب تفسير سبب إصدار هذا الحكم، مما قد يؤدي إلى نتائج غير عادلة.

أمثلة على التحيّز في أنظمة الذكاء الاصطناعي

هناك العديد من الأمثلة على التحيّز في أنظمة الذكاء الاصطناعي. وتشمل:

في عام 2015، اكتشف باحثون أن نظام الذكاء الاصطناعي المستخدم من قبل شركة Amazon لتقييم المتقدّمين للوظائف كان متحيّزاً ضد النساء. كان النظام يميل إلى منح الدرجات الأعلى للرجال من النساء، حتى لو كان لدى النساء المؤهّلات نفسها.

في عام 2016، اكتشف باحثون أن نظام الذكاء الاصطناعي المستخدم من قبل شركة Microsoft لتقييم طلبات الإقراض كان متحيّزاً ضد الأشخاص من أصول أفريقية. كان النظام يميل إلى منح درجات أقل للطلبات المقدّمة من السود من الطلبات المقدّمة من البيض، حتى لو كانت الطلبات متطابقة من حيث العوامل الاقتصادية.

في عام 2020، اكتشف باحثون أن نظام الذكاء الاصطناعي المستخدم من قبل شركة Google لتحديد الأشخاص المشتبه بهم في جرائم المرور كان متحيّزاً ضد السود. كان النظام يميل إلى تحديد السود على أنهم مشتبه بهم أكثر من البيض، حتى لو كانوا يقودون  بالطريقة نفسها.

كيفية تقليل التحيّز في أنظمة الذكاء الاصطناعي

هناك العديد من الطرق لتقليل التحيّز في أنظمة الذكاء الاصطناعي. وتشمل:

- استخدام بيانات تمثيلية: من المهم استخدام بيانات تمثيلية لتدريب أنظمة الذكاء الاصطناعي. يمكن أن تساعد البيانات التمثيلية في ضمان أن تكون أنظمة الذكاء الاصطناعي قادرة على التعرّف إلى الأنماط في البيانات من دون التحيّز ضد أي مجموعة معيّنة.

- استخدام خوارزميات غير متحيّزة: هناك العديد من الخوارزميات غير المتحيّزة المتاحة لأنظمة الذكاء الاصطناعي. يمكن أن تساعد هذه الخوارزميات في تقليل التحيّز في نتائج نظام الذكاء الاصطناعي.

- استخدام التفسيرات الواضحة: من المهم استخدام التفسيرات الواضحة لنتائج نظام الذكاء الاصطناعي. يمكن أن تساعد التفسيرات الواضحة في ضمان معرفة كيف تمّ إنشاء النتائج، وكيفية تفسيرها.

الذكاء الاصطناعي أداة بيد الغرب

كثير من المواقع الإلكترونية تعتمد على الذكاء الاصطناعي في مجموعة متنوّعة من الوظائف، بما في ذلك:

- التعرّف إلى الصور: تستخدم العديد من المواقع الإلكترونية تقنية التعرّف إلى الصور لتحديد الصور وتنظيمها. على سبيل المثال، تستخدم مواقع التواصل الاجتماعي مثل Instagram وFacebook تقنية التعرّف إلى الصور لتحديد الصور التي ينشرها المستخدمون.

- التعرف إلى الكلام: تستخدم العديد من المواقع الإلكترونية تقنية التعرّف إلى الكلام للسماح للمستخدمين بالتفاعل مع الموقع من دون استخدام لوحة المفاتيح أو الماوس. على سبيل المثال، تستخدم مواقع التسوّق عبر الإنترنت مثل Amazon وeBay تقنية التعرّف إلى الكلام للسماح للمستخدمين بتقديم الأوامر الصوتية.

- الترجمة الآلية: تستخدم العديد من المواقع الإلكترونية تقنية الترجمة الآلية لترجمة النصوص من لغة إلى أخرى. على سبيل المثال، تستخدم مواقع الأخبار العالمية مثل BBC وCNN تقنية الترجمة الآلية لترجمة النصوص إلى لغات مختلفة.

من هنا نسأل، ما هي القيود لتلك الأدوات الذكية؟ وهل هي فعلاً متحيّزة لسياسات الغرب أم لا؟

إذا ذهبت لأيٍ من المواقع التي تعتمد على تقنيات الذكاء الاصطناعي من أجل إنشاء محتوى نصي، وكتبت مثلاً: هل يحقّ للفلسطنين بناء دولة مستقلة؟

سيأتيك الجواب بأن هذا السؤال معقّد لا توجد عليه إجابة سهلة. هناك العديد من الحجج التي تدعم الحقّ الفلسطيني في دولة مستقلة، وهناك أيضاً العديد من الحجج التي تعارض ذلك.

وأما اذا طرحت السؤال على صيغة: هل يحقّ للإسرائيليين بناء دولة مستقلة؟ فتأتيك سريعاً الإجابة كالتالي: "الإجابة على هذا السؤال معقّدة وتعتمد على التعريف الذي تستخدمه للدولة. إذا كنت تعني الدولة كحقّ تقرير المصير للشعب، فإن الإجابة هي نعم، يحقّ لليهود بناء دولة مستقلة. ينص ميثاق الأمم المتحدة على حقّ جميع الشعوب في تقرير مصيرها، ويشمل ذلك الحق في إنشاء دولة مستقلة".

من ناحية أخرى، ما إن تظهر شعارات بعض قنوات التلفاز أو الراديو التابعة للمقاومة الفلسطينية أو اللبنانية أو اليمنية، في محتوى نصي يدعم ويؤيّد هذه القنوات والإذاعات، تلقائياً تجد مواقع التواصل الاجتماعي كالفيسبوك والإنستغرام مثلاً تحجب هذا المحتوى. ولكن الصورة المنشورة نفسها التي تحتوي على شعار من شعارات هذه القنوات أو الإذاعات، يرافقه نصّ نقدي، لا يحجب من منصات مواقع التواصل الاجتماعي.

حتى الصور والفيديوهات التي تُصنّف تحت عناوين "التشجيع على العنف والجريمة" هي أيضاً عرضة للبازارات السياسية للغرب. أيّ صورة على صلة بالمجازر الإسرائيلية تحجب فوراً، ولكن الصور المفبركة من قبل نتنياهو التي ادّعى بها قتل المقاومة الفلسطنية للأطفال، لا تحجب أبداً، رغم ثبوت فبركتها.

ما نُشر وينشر في أوكرانيا ممنوع ومحجوب في غزة

صورة رئيس أوكرانيا بكامل سلاحه تُنشر وتساهم المنصات بنشرها على نطاق واسع، بالمقابل صورة لطفل شهيد في غزة لا يتجاوز عمره عدد أصابع اليد الواحدة من الشهور تُحجب وتُمنع.

نحن نقاوم عدواً بل أعداء يعملون ليل نهار من أجل التعتيم على بصيرتنا وكم أفواهنا، ولأنّ المقاومين لهم في الرأي أصبحوا كثراً، عمد الأعداء بأساليب علمية تنقصها كل أخلاقيات العلوم، إلى الملاحقة الأوتوماتيكية باستخدام تقنيات الذكاء الاصطناعي لحجب ما يمكن من أجل عدم فضح ما يسرّون.

في السابع من تشرين الأول/أكتوبر 2023 أعلنت كتائب القسام معركة "طوفان الأقصى"، فاقتحمت المستوطنات الإسرائيلية في غلاف غزة، وأسرت جنوداً ومستوطنين إسرائيليين. قامت "إسرائيل" بعدها بحملة انتقام وحشية ضد القطاع، في عدوانٍ قتل وأصاب عشرات الآلاف من الفلسطينيين.