حول فلسفة الذكاء الاصطناعي.. "إسرائيل" المارقة مرة أخرى

وحدها الكيانات المارقة تحوّل إنجازات البشرية التكنولوجية إلى أداة موت، من حظر انتشار النووي، إلى الحوكمة العالمية للذكاء الاصطناعي، "إسرائيل" تخدع العالم مرتين! 

  • تتكامل عناصر الإبادة الجماعية في الذكاء الاصطناعي الإسرائيلي.
    تتكامل عناصر الإبادة الجماعية في الذكاء الاصطناعي الإسرائيلي.

إذا كان القرن السادس عشر يعتبر نقطة حرجة وفاصلة في التاريخ الأوروبي، وخروج أوروبا من قرون الظلام إلى عصر التنوير وانتعاش الحالة الفلسفية وانتشار الأفكار الجديدة، فيعود ذلك (في جزء كبير منه) إلى اختراع الآلة الطابعة على يد يوهان غوتنبرغ في منتصف القرن الخامس عشر. قبل ذلك، كان تحالف الإقطاع والكنيسة هو الجهة المركزية الوحيدة التي تمتلك تصوّرات الواقع، وتمليها على الناس، وهذا التحالف هو الذي شكّل قوالب الحياة وأنماط الإنتاج والعيش والعلاقات الاجتماعية في أوروبا. 

سمحت الطابعة للمرة الأولى في التاريخ، بانتشار واسع وغير مسبوق للأفكار، ودخول إنتاج المفكّرين الاجتماعيّين على الخط، وإمكانية وصول أفكارهم وأطروحاتهم إلى العامّة، وتمكّن الناس من الاطلاع على الآراء الفلسفية والدينية بلغاتهم الخاصة من دون وسيط يفسّرها لهم، ويمتلك سلطة التفسير الوحيدة. 

سارت الطابعة على السكّة نفسها لتغيّرات التاريخ الكبرى؛ الاختراعات التي تبتكرها البشرية بأيديها تعيد تشكيل واقعها الاجتماعي، وتعيد إنتاج العلاقات بين البشر، وعلاقتهم مع الاختراع الجديد، والعلاقة بين الأمم. حدثت هذه الهزّات العظيمة في تاريخ البشرية مع الآلة البخارية وسكك الحديد واكتشاف النفط وتوليد الكهرباء، وفي كلّ مرة قفزت البشرية إلى حيّز اجتماعي اقتصادي جديد، وفي كل مرّة دار الصراع بين مؤيّد ومعارض للاكتشاف الجديد، بين القوى المهيمنة القديمة والقوى الصاعدة، بين الفئات الاجتماعية المستفيدة من النظام القديم وتلك الطامحة للتغيير في النظام الجديد، بين الفرحين بالابتكار الجديد والقلقين من امتحان التكيّف الصعب وتحدياته.

وإذا كنا نريد الحديث بشأن هزة جديدة مماثلة في عصرنا، فلن تكون إلا الذكاء الاصطناعي وتفرّعاته المتنوّعة في ميادين التكنولوجيا، والتي تمسّ ميادين الاقتصاد والثقافة والاجتماع، وكذلك الحرب. ومع انشغال البعض في السمات "الفنتازية" للمشهد (تمرّد الآلة على الإنسان)، وإهمال البعض الآخر للجوانب الفلسفية للذكاء الاصطناعي لحساب المسائل الفنية المحضة (على أهميتها في خدمة القراءة الفلسفية الأوسع)، تبرز الأهمية اليوم لنقاش الذكاء الاصطناعي في شقّه الفلسفي والسياسي، ومحاولة البحث عن توافق أممي على منظومة أخلاقية فلسفية للتعامل معه.

هنري كسنجر، عرّاب السياسات الأميركية الممعنة في القتل خلال الحرب الباردة، قرّر قبل وفاته خوض غمار النقاش الفلسفي بشأن الذكاء الاصطناعي بالتشارك مع المدير التنفيذي السابق لغوغل إريك شميت، وعميد كلية شوارتزمين في معهد ماشاتشوستس للتكنولوجيا، دانييل هوتنلوشر. صدر الكتاب المتضمّن لهذا النقاش بين الثلاثة في نهاية العام 2021، ونُقِل إلى العربية في العام الماضي عام 2023. 

انطلق الثلاثي من خيارات البشرية في التعامل البشري مع الذكاء الاصطناعي؛ هل نحدّ من استخدامه ونقيّده؟ هل نتشارك معه؟ هل نذعن له؟ 

مع الطبيعة المركّبة لثورة الذكاء الاصطناعي، لا تصلح الإجابة الميكانيكية بالقول أنا مع الخيار الأول (تقييده) أو مع الخيار الثالث (أنا مع الإذعان له). تستند الإجابة عن السؤال إلى فهم أوسع، وتحديد إجابة مناسبة لكل قطاع دخل الذكاء الاصطناعي عليه:

· في لحظة اضطراب حرجة لطائرة في الجو، من هو الأقدر على أخذ الإجراء الأنسب لتجنّب تحطّم الطائرة، الإنسان أم الذكاء الاصطناعي؟

· في لحظة اشتعال النيران في مبنى، من الأقدر على اتخاذ القرار حول احتمالات نجاة كل فرد موجود في المبنى، وبالتالي تحديد أولويات العمل للدفاع المدني في العمل؟

·  ما هو الأنسب في المركبات ذاتية القيادة؟ ترك الذكاء الاصطناعي يعمل لوحده؟ أم التشارك معه في اللحظة التي يعتقد فيها (الذكاء الاصطناعي) أن رجل الثلج على الطريق هو إنسان لا بدّ من تجنّب الاصطدام به؟

ربّما تدور النقاشات حول آلية التعامل مع الذكاء الاصطناعي في مختلف القطاعات، وتتباين الآراء حول الخيارات المطروحة (التقييد، التشارك، الإذعان)، ولكن سؤال الذكاء الاصطناعي في الحرب وحدها يحظى بالإجماع الأممي، ولو نظرياً (فالولايات المتحدة متحمسة لهذا الإجماع نظراً لقلقها من التخلّف التقني الحالي عن الصين في مجال الذكاء الاصطناعي تحديداً). في الميدان العسكري، الجميع يريد خيار التقييد، وبقاء العامل البشري حاضراً في حلقة العمل. لماذا يريد العالم ويحتاج هذا التقييد؟

1. في كل قفزة تكنولوجية أنجزتها البشرية، كنا نتساءل عن مدى توافقها مع 3 شروط (مدى استخدامها المختلط في القطاعين المدني والعسكري، سهولة انتشارها، إمكانياتها التدميرية). على امتداد تاريخنا البشري، لم يتمكّن ابتكار تكنولوجي من الجمع المتماسك بين الشروط الثلاثة كما هو الحال مع الذكاء الاصطناعي، بما في ذلك اختراع الطاقة النووية. 

2. لم يتمّ تحييد العامل البشري مع القفزات التكنولوجية السابقة كما هو الحال اليوم، وتكمن المشكلة الأكبر في الأسلحة الفتّاكة المزوّدة بالذكاء الاصطناعي، ذاتية القرار، وذاتية التنفيذ، تلك التي تحدّد أهدافها بنفسها، وتطلق النار بقرارها الذاتي (استناداً إلى تدريب الخوارزمية). 

خلال الحرب الإجرامية على غزة، رشحت تقارير عن استخدام "إسرائيل" لبرمجيات الذكاء الاصطناعي في الحرب، وتوظيفه في الإبادة الجماعية.

وإذا كانت حوارات الحوكمة العالمية للذكاء الاصطناعي تدور اليوم حول استخدامه في الميدان العسكري بتقييد صارم من قبل العامل البشري، واستخدامه لرفع نسبة الدقة في الأهداف العسكرية وتجنّب الضرر بالمدنيين والمنشآت المدنية، فإن "إسرائيل" استخدمته في خدمة الإبادة الجماعية، من خلال:

1. تتحدث التقارير التي تناولتها مجلة 972، والتي تضمنت مقابلات مع عناصر في قوات الاحتلال، أن "إسرائيل" تستخدم بشكل أساسي نظامين، واحداً لتحديد الأفراد المستهدفين (Lavender)، وآخر لتحديد المباني والمنشآت المستهدفة (Gosepl). يتكامل نظام لافندر مع نظام تعقّب آخر (أين أبي – where is daddy)، الذي يرسل إشعارات إلى نظام لافندر بدخول الشخص المستهدف إلى المنزل، لاستهدافه فيه!

2.  تعتمد خوارزمية الذكاء الاصطناعي على مجموعة من البيانات (وجود المستخدم في مجموعات whatsapp تضم عناصر محتملة في المقاومة، التغيير المتكرّر للهواتف والأرقام، التغيير المتكرّر للسكن).

في هذه الحالة تعتمد الخوارزمية فرضيات خاطئة، وعلى بيانات لا تأخذ العامل الاجتماعي في عين الاعتبار، وتعتبر عناصر المقاومة جزءاً منفصلاً عن محيطها الاجتماعي، فالوجود المشترك في مجموعات whatsapp للفلسطينيين بين عناصر المقاومة وأقاربهم الآخرين ليس مؤشراً يعتمد عليه في التتبع أساساً؛ كما أن ظروف الحرب التي دفعت بالفلسطينيين إلى التغيير الدائم للهواتف والسكن، لا تمثّل شرطاً يمكن الاعتماد عليه لتتبّع المقاومين. 

3. مع الإصرار العالمي في مؤتمرات الذكاء الاصطناعي على حضور العامل البشري، فقد أورد التقرير أن 20 ثانية تفصل بين تحديد الهدف وإطلاق النار عليه في التقنيات التي تستخدمها "إسرائيل".

4. تتفق مبادئ الحوكمة العالمية للذكاء الاصطناعي أن استخدام الأسلحة عالية الدقة يجنّب المدنيين أضرار الحرب. تورد 972 في تقريرها على لسان أحد عناصر قوات الاحتلال "نحن نستخدم القنابل الغبية Dummy bombs، فلا داعي لاستخدام قنابل مهمة على أهداف لا نعرف أهميتها "! يؤكد هذا الحديث ما تمّ تناقله عن خوارزمية الذكاء الاصطناعي للاحتلال، أنها لا تأبه حتى لتصنيف الهدف المحتمل "احتمالات أن يكون الهدف قيادياً في الميدان أم لا" (junior operative or senior operative)، وكما أنها لا تأبه بإشعارات الاحتمالات القوية لاستشهاد 100 شخص إضافة للهدف المطلوب! 

5. في ظلّ الاعتماد على قاعدة بيانات تدريبية هشّة للذكاء الاصطناعي، ليس غريباً أن تولد الخوارزمية 37 ألف هدف محتمل، الأمر الذي يعني أن "إسرائيل" تفضّل الأتمتة في القتل، عندما تذهب للأتمتة أكثر، يصبح توليد الأهداف أكثر غباء وجنوناًonce you go automatic, Target generation goes crazy)  ( 

تتكامل عناصر الإبادة الجماعية في الذكاء الاصطناعي الإسرائيلي، فقاعدة بياناته هشّة، وشروط الاستنتاج فيها غير دقيقة في الحسابات المعلنة إسرائيلياً، والعامل البشري محيّد فيها. 

يحاول العالم استنساخ تجربة حظر انتشار الأسلحة النووية، بمنطق المعاهدات والاتفاقيات المستخدمة خلال الحرب الباردة وبعدها، وتظهر التحديات في صعوبة الكشف عن أسلحة الذكاء الاصطناعي، الأسهل في التخزين والإخفاء من الأسلحة النووية. "إسرائيل" التي مارست سياسة "الغموض النووي" سابقاً، وأجرت تجاربها النووية مع نظام الفصل العنصري في جنوب أفريقيا، تكرّر تجربة انتهاك الاتفاقيات والأعراف الدولية في الجولة التطورية اليوم والمتمثّلة بالذكاء الاصطناعي. 

وحدها الكيانات المارقة تحوّل إنجازات البشرية التكنولوجية إلى أداة موت، من حظر انتشار النووي، إلى الحوكمة العالمية للذكاء الاصطناعي، "إسرائيل" تخدع العالم مرتين!