مقدمــة

مع التحولات التقنية المتسارعة في العالم، برز الذكاء الاصطناعي كموضوع مركزي في النقاشات التي تتناول المستقبل. ورغم أن الذكاء الاصطناعي واعد من حيث الثورةُ التي يبشر بها في قطاعات عديدة، فإن تطبيقاته تثير حاليا أسئلة عميقة، خاصة في الشرق الأوسط وشمال إفريقيا، حيث قد تنقلب هذه التقنيات سيفا ذا حدين.

من شأن الذكاء الاصطناعي أن يتيح حدوث تحول إيجابي، بتشجيعه الشفافية والحكم الرشيد والعدالة الاجتماعية، لكنه أيضا محفوف بمخاطر جمة، تشمل فيما تشمل تمكينه للقمع والرقابة وللسياسات التي تقيد حقوق الإنسان. في نوفمبر 2024، وفق “قاعدة تشاتام هاوس”، عقدت مبادرة دعم الديمقراطية الجلسة الثانية ضمن جلسات الحوارات الخاصة، تحت شعار “التصدي لمناهضي الديموقراطية وسردياتهم”[1]. جمعت الجلسات أعضاء من المجموعة الاستشارية لمبادرة (DMI) وخبراء مرموقين في المنطقة في مجال التقنية والذكاء الاصطناعي وحقوق الإنسان والديموقراطية، ليتناولوا بالتحليل كيف تستخدم الأنظمة التسلطية في الشرق الأوسط وشمال إفريقيا التقنية والذكاء الاصطناعي لتروج للسرديات المناهضة للديموقراطية، وكيف تُطوِّع في سبيل ذلك أدوات محلية ودولية، تشمل فيما تشمل تأثيرَ فاعلين دوليين.

الخلفـــية والسيــاق

  1. تأثير الذكاء الاصطناعي في منطقة الشرق الأوسط وشمال إفريقيا

تناول المتحدثون في اللقاء دراسة منطقة الشرق الأوسط وشمال إفريقيا، لفهم آثار الذكاء الاصطناعي. فبقدر ما تستثمر دول مثل المملكة العربية السعودية والإمارات العربية المتحدثة في تقنيات الذكاء الاصطناعي وتطوّعها للتأثير في مجالات الخدمات العامة والأمن، فإنها كثيرا ما تستخدمها سلاحا لمراقبة المواطنين وقمع حرية التعبير.

المغرب وتونس

خلال جائحة كوفيد 19، استخدم المغرب وتونس تقنيات وأنظمة التعرف على الوجوه كجزء من حملة الصحة عامة التي أطلقتها حكومتا البلدين للتصدي للجائحة. طُبقت هذه الأنظمة بداية لفرض الالتزام بالإجراءات الصحية مثل ارتداء الكمامة واحترام مسافة الأمان وتقييد حركة التنقل. في المغرب، طورت السلطات تطبيقا لتعقب الأفراد ممن تعرضوا لعدوى الفيروس. وفي تونس استُخدمت تقنيات شبيهة لمراقبة الفضاءات العامة وضمان التقيد بالقواعد الصحية التي فرضتها السلطات. 

لكن ما إن انحسرت الأزمة الصحية العامة حتى بدأت السلطات في استغلال هذه التقنيات لأغراض أخرى. ذكرت تقارير حقوقية كيفية استخدام أنظمة التعرف على الوجوه والمراقبة لتتبع الاحتجاجات السياسية وملاحقة المعارضين وقمع حركات المعارضة. في حالة تونس، عبر مشاركون عن قلقهم من أن تنقلب هذه الأنظمة، التي من الواضح أنها صُممت لأغراض الصحة العامة، أداة للتضييق على حرية التجمهر والتعبير، خاصة خلال موجات الاضطرابات الشعبية. الأمر ذاته حدث في المغرب، حيث جرى التوسع في استخدام هذه الأدوات للتعرف على ومراقبة الناشطين المشاركين في الاحتجاجات السلمية. 

إن تحوير الأهداف الأصلية لأدوات المراقبة مثال حي على طبيعة الاستخدام المزدوج لتقنيات الذكاء الاصطناعي في المنطقة، فما يبدأ مبادرةً من مبادرات الصحة العامة، ينقلب بسهولة آليةً من آليات التسلط، بما يسفر عنه ذلك من تآكل ثقة الرأي العام، وما يثيره من أسئلة عن شفافية هذه التقنيات ومدى التزامها بمعايير الحكم الرشيد. 

فلسطين

في الأراضي الفلسطينية المحتلة، تستخدم إسرائيل أنظمة الذكاء الاصطناعي المتطورة لفرض مراقبة وسيطرة لصيقتين على جميع الفلسطينيين. ونوه الخبراء إلى أن جمع البيانات الحيوية حجرُ زاوية هذه الاستراتيجية، وأحد أبرز الأمثلة الصارخة على ذلك جمع بيانات مسح قزحية العين وبيانات بيومترية أخرى من نحو مليونيْ فلسطيني في قطاع غزة والضفة الغربية. تستخدم هذه البيانات لاحقا لتصنيف الأفراد في خانات معينة، والتنبؤ بتحركاتهم، وانتماءاتهم، وسلوكهم. 

وقد فصّل الخبراء كيف تُدمَج هذه الأنظمة المعتمدة على الذكاء الاصطناعي مع أدوات أخرى من قبيل كاميرات التعرف على الوجوه المنصوبة في نقاط المراقبة، ومع الطائرات المسيرة (الدرونز) المزودة بقدرات المراقبة ومع الخوارزميات التنبؤية. لقد سمحت هذه التقنيات بحدوث اعتقالات تعسفية ووقوع حالات قتل خارج إطار القانون وأتاحت سياسة العقاب الاجتماعي حتى بالنسبة لفلسطينيي الداخل الذين يحملون الجنسية الإسرائيلية. وعلى سبيل المثال، تستخدم أنظمة الذكاء الاصطناعي لتصنيف أفراد في خانة “الخطرين للغاية”، بالاستناد إلى أنماط في بياناتهم الحيوية، وهو ما ينتهي في كثير من الأحيان باعتقالهم دون اتباع الإجراءات القانونية اللازمة. وأشار مشاركون إلى حالات لا يقتصر فيها الاستهداف على أفراد فحسب، بل يمتد إلى عائلات بأكملها، حيث يتوسع نطاق المراقبة والعقاب ليشمل مجموعات سكانية برمتها. 

ناهيك عن المراقبة المباشرة، يُستخدم الذكاء الاصطناعي أيضا في تحديد أهداف الغارات الجوية وعمليات عسكرية أخرى، حيث حللت أنظمة مثل “?Where’s Daddy مجموعات هائلة من البيانات للتنبؤ بوجود أفراد أو مجموعات بعينها في مناطق مدنية. تسمح هذه الأدوات التنبؤية، عند دمجها مع أنظمة التعرف على الوجه والتتبع باستخدام العلامات الحيوية، بتنفيذ هجمات دقيقة، كانت نتائجها في الحملات العسكرية التي عرفتها غزة، وخيمة ومدمرة. 

أحد الأبعاد الأخرى، استخدامُ الذكاء الاصطناعي لأغراض المراقبة والهندسة الاجتماعية المنهجيين، إذ تُستغل البياناتُ التي يجري تحصيلها، بهدف الحفاظ على نظام الفصل العنصري والتمييز القائم، حيث شرح مشاركون كيف استُخدمت غزة والضفة الغربية كـ “مختبرات تجارب” لتطوير الذكاء الاصطناعي الموجه لأغراض المراقبة والأغراض العسكرية. إن استخدام الذكاء الاصطناعي بشكل ممنهج للتمكين لسياسات الاحتلال ولتقييد الحركة وإخضاع مجموعات سكانية بأكملها، انتهاك خطير لمعايير حقوق الإنسان الدولية. 

 

2. التحديــات السياسيــة والاجتماعيــة في المنطقــة

• تفتقر الأنظمة السياسية في المنطقة في أحيان كثيرة إلى أطر تنظّم عمل الذكاء الاصطناعي.

• هناك نقص حاد في قوانين حماية الخصوصية والبيانات، بما يتيح استخدام هذه التقنيات لأغراض غير أخلاقية.

• تستخدم الحكومات الذكاء الاصطناعي لقمع أي تحرك شعبي ضدها، حيث باتت هذه التقنية، حسب مشاركين، أداة لتعزيز القبضة التسلطية على المجتمعات.

 

نقــاط النقــاش الأساسيــة

1. الذكاء الاصطناعي كأداة تسلط

المراقبة الشاملة

• جمع البيانات البيومترية: زادت، وعلى نطاق هائل، قدرة تقنيات الذكاء الاصطناعي على جمع وتحليل البيانات الفردية والبيومترية (الحيوية) في مناطق كثيرة من الشرق الأوسط. وفي بلدان خليجية مثل المملكة العربية السعودية والإمارات العربية المتحدة، ارتفعت وتيرة تحصيل هذه البيانات لتتبع ومراقبة حركة المواطنين في الفضاءات العامة مثل المطارات.

التضييق على الخصوصية: تستخدم البيانات البيومترية، مثل بصمات الأصابع وبيانات الوجه، لأغراض التجسس والمراقبة. لقد استغلت حكومات المنطقة التقنيات البيرومترية لأهداف المراقبة السرية. كثيرا ما تخزن البيانات، التي يجري تحصيلها عبر هذه الأدوات، بلا سقف زمني، ويتاح لوكالات الاستخبارات الوطنية الولوج إليها لتعقب المعارضين السياسيين والصحفيين وناشطي حقوق الإنسان. وأشارت التقارير إلى الإمارات العربية المتحدة مثالا، حيث استخدمت سلطات هذا البلد برنامج تجسس يحلل البيانات البيومترية والرقمية للتنبؤ بتحركات هؤلاء. 

التبعات الكبرى للمراقبة الشاملة: لاستخدام الذكاء الاصطناعي على نطاق واسع لأغراض المراقبة الشاملة تبعات عميقة وشاملة، إحداها تطبُّع المواطنين تدريجيا على الخضوع للمراقبة الدائمة، بحيث يرون فيها أمرا واقعا لا مفر منه. إن هذا التطبيع النفسي يقضي على روح مقاومة المواطنين، ويضعف المطالب بالشفافية والمحاسبة، ناهيك عن أن استغلال البيانات البيومترية كسلاح يُعد خطرًا حقيقيًا، إذ تستطيع الحكومات استغلال البيانات للتلاعب بالسرديات العامة، وتزوير أدلة الإدانة، أو لشن حملات موجهة لإخراس أصوات المعارضين. تُفاقم ظاهرة الإفلات من المحاسبة هذه الأخطار؛ حيث إن كثيرا من أنظمة المراقبة التي تعتمد على الذكاء الاصطناعي تعمل تحت ستار من السرية، ولا سلطة للمواطنين عليها، بما يضيق فرص الحصول على الحماية القانونية والإشراف التنظيمي.

 

التلاعــب بالمعلومــات

• البوتات الرقمية: إن استخدام بوتات تعمل بالذكاء الاصطناعي للهيمنة على الخطاب العام أحد المواضيع التي تكررت إثارتها في النقاشات. ففي المملكة العربية السعودية على سبيل المثال، تغزوا البوتات المرتبطة بجهات حكومية منصات وسائل التواصل الاجتماعي، لعرض محتوى مساند للسلطة، بما يترك انطباعا كاذبا بوجود تأييد واسع لها. تسمح هذه البوتات للسردية الرسمية بالهيمنة، وتُخرس الأصوات الناقدة، وتصعّب على المواطن الحصول على أخبار غير منحازة. وقد لاحظ مشاركون في النقاشات أن سياسات التلاعب هذه لا تحد فحسب من حرية التعبير، وإنما تشوه أيضا الإدراك العام، بما يصعّب على الحركات الأهلية الحصول على التأييد.

• الخوارزميات المنحازة: يتوسع استخدام خوارزميات الذكاء الاصطناعي للسيطرة على المحتوى المقدم للمستخدمين، ويحدث ذلك في كثير من الأحيان تحت ستار الغموض وخارج أطر الضوابط التنظيمية. تستغل الحكومات هذه الخوارزميات لمنح الأولوية للمحتوى المؤيد لها وقمع الأصوات المعارضة. في بعض المناطق، على سبيل المثال، يضيق إشراكُ الذكاء الاصطناعي في الإشراف على منصات مثل “ميتا” و”أكس” أكثرَ ما يضيق على محتوى الناشطين والأقليات. وقد أشار مشاركون إلى أن هذا الانحياز لا يكون دائما عن قصد وإنما منبعه بيانات التدريب التي تغذي الخوارزميات. هذه البيانات غالبا ما تعكس أحكاما مجتمعية وسياسية مسبقة، بما يعمّق تهميش الفئات المستضعفة ويقوّض الخطاب الديموقراطي.

• السيطرة على بيئة المعلومات: إضافة إلى تشكيل الإدراك الفردي، تستخدم الحكومات الذكاء الاصطناعي للهيمنة على البيئة الأكبر للمعلومات. يشمل ذلك نظم التحذير التلقائي التي تتعرف على المواد المصنفة في خانة المحتوى الحساس سياسيا وتحذفها. يمكن إساءة استغلال هذه الأنظمة كسلاح لإخراس الصحفيين والمدافعين عن حقوق الإنسان والمعارضين. وفي بعض الحالات، يتوسع التلاعب بالمعلومات ليشمل تعديل السرديات التاريخية، حيث يستخدم الذكاء الاصطناعي لبناء سجلات رقمية أو لمنع انتشارها، خدمة لأهداف تسلطية.

 

عسكرة الذكاء الاصطناعي

• الحروب الحديثة: لقد أعاد استخدام الذكاء الاصطناعي في العمليات العسكرية تعريف مفهوم الحرب الحديثة، خاصة في مناطق نزاع مثل غزة. إن نظاما مثل ”?Where’s Daddy”  الذي تستخدمه إسرائيل، يحلل كما هائلا من البيانات للتنبؤ بمواقع أهداف مهمة، بما يزيد دقة الغارات الجوية. ورغم ما يشاع عن دور هذه الأنظمة في تقليل الأضرار الهامشية، فإن مشاركين أشاروا إلى أنها كثيرا ما تتسبب في حدوث عنف مفرط، إذْ إن بياناتها وخوارزمياتها ليست في منجاة من مشاعر التحيز ومن الأخطاء.

• المراقبة في مناطق الحروب: إضافة إلى التبعات العسكرية المباشرة، يستخدم الذكاء الاصطناعي لأغراض المراقبة الشاملة في مناطق الحروب. تجمع الطائرات المسيرة المزودة بتقنيات التعرف على الوجه وبمجسات متقدمة بيانات عن حركة المدنيين، بما يعمّق عسكرية الحياة اليومية في مناطق مثل غزة والضفة الغربية. بعض المشاركين وصفوا كيف تجرّد هذه الأنظمة الأفراد من إنسانيتهم، بتحويلهم إلى مجرد نقاط بيانية في خوارزميات، تتحكم في مدى حصولهم على الحقوق والحريات الأساسية.

• إدارة أزمات اللجوء: دور الذكاء الاصطناعي في إدارة أزمات اللاجئين تطورٌ آخر مثير للقلق للشديد، ففي بلدان مثل لبنان والأردن، تصنف أنظمة الذكاء الاصطناعي اللاجئين بناءً على خلفياتهم الطائفية والاجتماعية، بما يعرضهم في أحيان كثيرة للتمييز. تُستخدم هذه التصنيفات لتحديد مدى حصولهم على الموارد وعلى الإقامة، وحتى على فرص إعادة التوطين. وقد ذكّر مشاركون بأن هذه الأنظمة تسمح باستمرار أشكال الظلم القائمة وتعمّق الفوارق المجتمعية، خاصة في المناطق التي يواجه فيها اللاجئون تحديات كبيرة أصلا.

• الاستهداف الآلي: نوّه مشاركون أيضا إلى استخدام الذكاء الاصطناعي لأغراض الاستهداف الآلي في العمليات العسكرية. تحلل أنظمة الذكاء الاصطناعي المتقدمة، وفي الوقت الفعلي، بيانات تُجمَع من مصادر متعددة بينها وسائل التواصل الاجتماعي، وصور الأقمار الصناعية، وقواعد البيانات البيومترية، للتعرف على الأخطار المحتملة. لكن هذه الأتمتة كثيرا ما تفتقر إلى الشفافية وتفلت من المساءلة، بكل ما يسفر عنه ذلك من أخطاء عواقبها وخيمة للغاية. وفي بعض الحالات، استُهدف أفراد استنادا إلى تنبؤات خاطئة لأنظمة الذكاء الاصطناعي، فوقع قتل وتدمير بغير وجه حق. 

 

2. الذكــاء الاصطنــاعي أداةً لتعــزيز الديموقراطــية

حماية الحقوق الرقمية

• مشروع “نهى”: يمثل “مشروع نهى” مثالا رائدا على استخدام الذكاء الاصطناعي لحماية الحقوق الرقمية، إذ يتصدى تحديدا لظاهرة استشراء الإساءات التي تتعرض لها النساء في الفضاء الإلكتروني. طورت هذه المبادرة أدواتِ ذكاء اصطناعي تستطيع التعرف على المحتوى الرقمي المسيء وتحليله في اللهجات المحلية، وهو أمر من الصعوبة بمكان بسبب التنوع اللغوي في المنطقة. المشروع الذي بدأ في الأردن والعراق، يدرب الخوارزميات على التمييز بين فروق المعاني في التعبيرات المحلية وفي السياق الثقافي للتعرف على المحتوى المسيء أو على اللغة الجارحة والإشارة إليه بهذه الصفة. وقال مشاركون إن هذه المبادرة ليست ضرورية لحماية النساء فحسب في الفضاء الإلكتروني، بل إنها تهيئ بيئة رقمية أكثر أمانا تستطيع فيها الأصوات المهمشة الإدلاء بدلوها دون خوف أو مضايقة. الخطط الرامية إلى مد نطاق المشروع ليشمل دولا أخرى، مثل مصر”، دليل على قدرته على التوسع وعلى إحداث تغيير في مجال حماية الحقوق الرقمية في الشرق الأوسط. 

• أتمتة الشفافية: يستخدم الاتحاد الأوروبي أدوات الذكاء الاصطناعي لتعزيز الشفافية في الحكم الرشيد. تراقب هذه الأنظمة أعمال البرلمان، حيث تسجل ملاحظات مفصلة وتحلل البيانات حتى تصبح العملية التشريعية متاحة للرأي العام وخاضعة للمساءلة. باعتماد أتمتة تستثني المهام الرئيسية مثل التدوين والتوثيق وتحليل البيانات، فإن هذه الأدوات تسمح بتخصيص الموارد وتقليل هامش الخطأ البشري. وقد نوه مشاركون إلى أن هذه الأنظمة يمكن تكييفها في مناطق أخرى بما فيها الشرق الأوسط، لتعزيز شفافية مؤسسات الحكم الرشيد. ويستطيع الذكاء الاصطناعي على سبيل المثال مراقبة عمليات التوريد الحكومية، حتى تُمنح الصفقات بنزاهة كي لا يعتريها الفساد، بما يعزز الثقة بين المواطنين وحكوماتهم. 

 

تعزيز المشاركة المدنية 

• استخدام الذكاء الاصطناعي لكشف الفساد: تستخدم نظم الذكاء الاصطناعي الآن لتحليل نماذج في البيانات الضخمة بهدف كشف الفساد. تستطيع هذه الأدوات غربلة كميات هائلة من المعلومات -مثل المعاملات المالية، والعقود الحكومية، وسجلات الإنفاق الحكومي- للتعرف على المخالفات وحالات الفساد المحتملة. وقد ضرب مشاركون أمثلة بحالات استخدمت فيها الخوارزميات الذكاء الاصطناعي بنجاح لكشف أنشطة احتيالية واختلاسات مالية، بما أتاح محاسبة المسؤولين الفاسدين. وفي مناطق مثل الشرق الأوسط، حيث طالما قوّض الفساد الممنهج الحكم الديموقراطي، فإن من شأن هذه الأدوات أن تحدث تحولا، بأن تتيح للصحفيين الاستقصائيين ومنظمات المجتمع المدني والهيئات التنظيمية، العملَ جهاتٍ رقابية، وهو ما يعزز روح المحاسبة ويقلل الإفلات من العقاب. 

• تحسين توزيع الموارد: الذكاء الاصطناعي في خدمة العدالة الاجتماعية باتت الخوارزميات أداة لتعزيز العدالة الاجتماعية إذا تتيح توزيعا أمثل للموارد الحكومية. ففي تايوان على سبيل المثال، تم استغلال هذه الأنظمة في مشاريع بيئية لتحديد أفضل الطرق لاستخدام المصادر المحدودة. تحلل هذه الخوارزميات بيانات مثل مستويات التلوث وتَوفُّر الموارد وحاجات السكان، وذلك لضمان التوزيع العادل. وقد لاحظ مشاركون أن أدوات مماثلة يمكن توظيفها أيضا في الشرق الأوسط، حيث عمّقت الفوارق الاقتصادية وسوء إدارة الموارد التوترات الاجتماعية. من شأن الذكاء الاصطناعي، بمساهمته في توزيع أعدل وأنجع للموارد، المساعدة في حل مشاكل طال أمدها، مثل التفاوت في الحصول على الخدمة الصحية وعلى التعليم والبنية التحتية.

 

الوعي وبناء القدرات

• التعليم الفني: جَسْر الهوة المعرفية: من بين أهم المواضيع التي أثيرت في النقاشات أهمية تعليم السكان مهارات الذكاء الاصطناعي لضمان استخدامه استخداما مسؤولا. وقد أكد مشاركون على الحاجة إلى أن تُسطَّر، سواء بسواء، برامج تعليم رسمية ومبادرات شعبية تزيل عن تقنيات الذكاء الاصطناعي ما يكتنفها من غموض، ويشمل ذاك على سبيل المثال إدراج برامج الإلمام بهذه التقنية في المقررات الدراسية وهو ما من شأنه مساعدة الأجيال الشابة على فهم فوائدها وأخطارها المحتملة. أما المبادرات الأهلية، فتستطيع التركيز على الناشطين المهمشين وأفراد الفئات المستضعفة، لتمكينهم من المعرفة والأدوات اللازمة لحماية حقوقهم الرقمية. ونوه مشاركون إلى أن هدف التعليم يجب ألا يكون فقط جعل الذكاء الاصطناعي مفهوما، وإنما يتعداه إلى بناء ثقافة أساسها الفكر الناقد، تسمح للناس بأن تسائل وتحاسب من يسيء استخدام التقنية. 

• التمكين للناشطين: التدريب من أجل استخدام أنجع للذكاء الاصطناعي: أثيرت البرامج التدريبية الموجهة للموظفين والناشطين في مجال حقوق الإنسان كواحد من أهم عوامل تعزيز الديموقراطية. من شأن هذه البرامج أن تزود المشاركين بالمهارات التي يحتاجونها ليستطيعوا استخدام أدوات الذكاء الاصطناعي بنجاعة، بما يعزز قدرتهم على مراقبة انتهاكات حقوق الإنسان، وتوثيق الأدلة، والنضال من أجل التغيير. ويستطيع الناشطون على سبيل المثال استخدام أدوات تحليل البيانات المولدة بالذكاء الاصطناعي للتعرف على بعض أنماط القمع الحكومي أو لتعزيز فرص التعبير المتاحة للأصوات المهمشة في وسائل التواصل الاجتماعي. وقد شدد مشاركون أيضا على ضرورة أن تكون برامج التدريب هذه جامعة ومتاحة، خاصة للنساء والأقليات التي طالما تتصدر الحركات المطالبة بالعدالة الاجتماعية، لكن لا تُقيَّضُ لها المواردُ التقنية اللازمة للجهر بمطالبها.  

 

3. التحديــات القانونيــة والتنظيميــة

الفجوات التشريعية 

• أطر قانونية غامضة وبالية: نوه مشاركون إلى غياب شبه تام لقوانين وضوابط تنظيمية شاملة تحكم عمل الذكاء الاصطناعي في أغلب دول الشرق الأوسط وشمال إفريقيا، حيث كثيرا ما تعجز الأطر القانونية السائدة عن موائمة التطور السريع في تقنية الذكاء الاصطناعي، بما يسفر عنه ذلك من فجوات كبيرة يمكن استغلالها لأهداف خبيثة. وعلى سبيل المثال، فإن القوانين التي شُرعت لحماية خصوصية البيانات لا تميز بين البيانات الحيوية أو البيومترية (مثل التعرف على الوجه أو مسح عدسة قزحية العين) وبين البيانات الشخصية (من عناوين بريد إلكترونية أو أرقام هاتف.) غياب التخصيص هذا سمح للحكومات وكيانات خاصة، سواء بسواء، باستغلال البيانات البيومترية لأغراض المراقبة والسيطرة، دون التعرض لعواقب قانونية.

• غياب التشريعات الخاصة بحماية البيانات: نوه مشاركون إلى أن التشريعات المخصصة لحماية البيانات التي أقرت في دول في المنطقة مثل المغرب [2]ولبنان وتونس[3]، كثيرا ما تكون بالية وغير مكتملة وتشوبها عيوب كثيرة. وضربوا مثلا بالإخفاق في تنظيم عملية تحصيل وتحليل البيانات البيومترية والذي يعني جمع المعلومات الشخصية الحساسة وتخزينها دون موافقة الفرد. هذه الثغرة لا تفتح الباب أمام إساءة استخدام تقنيات الذكاء الاصطناعي لأغراض المراقبة الشاملة فحسب، وإنما تمثّل أيضا تعديا على خصوصية المواطن وتقويضا لثقته في المؤسسات الحكومية والشركات.

• المبالغة في التركيز على الأهداف الاقتصادية: أشار مشاركون إلى حالات يكون فيها الدافع وراء استخدام قوانين متعلقة بالذكاء الاصطناعي وحماية البيانات هو الاعتبارات الاقتصادية لا الالتزام بحقوق الإنسان. ففي الأردن على سبيل المثال، كانت مايكروسوفت واحدة من شركات كثيرة كان لها دور أساسي في صياغة قوانين لحماية البيانات تمنح الأفضلية لشركات التقنية الكبرى في استغلال فرص الأعمال المتاحة والقائمة على الاستفادة من البيانات الفردية المتوفرة. هذه المقاربة التي تركز على الاقتصاد لا تُلقي بالا، إلا نادرا، للضمانات الأساسية لحماية الخصوصية الفردية، بما يسهّل استغلال المواطنين.

• غياب معايير موحدة إقليميا: لقد فاقم غياب معايير موحدة في عموم المنطقة هذه التحديات. وقد نوه مشاركون إلى أن الأنظمة التسلطية تستفيد من غياب أطر قانونية وتنظيمية لاستغلال هذه التفاوتات التنظيمية. وعلى سبيل المثال، تستطيع الشركات والحكومات أن تقرر العمل في الدول التي تطبق قوانين أقل تقييدا، بما يقوض المحاسبة ويضر بجهود حماية حقوق الإنسان. 

 

مسؤولية شركات التقنية الكبرى

التواطؤ في ممارسات استبدادية: كان دور شركات التقنية الكبرى مثل مايكروسوفت وغوغل وغيرهما في التمكين للممارسات التسلطية واحدا من المواضيع التي أثيرت مرارا في النقاشات. وقال مشاركون إن هذه الشركات كثيرا ما تُقيّض لحكومات الشرق الأوسط وشمال إفريقيا أدواتِ ومنصاتِ ذكاء اصطناعي متطورة، دون فرض الإجراءات الرقابية والاحترازية اللازمة. وعلى سبيل المثال، تتيح هذه الشركات لحكومات مشهودٍ لها بميولها التسلطية، تقنيةَ التعرف على الوجه، والتحليل التنبؤي، وبرامج المراقبة، بما يمكّنها فعلا من فرض سياسات المراقبة الشاملة والقمع.

• تصدير تقنيات منحازة وغير مؤطرة تنظيميا: شدد مشاركون على أن كثيرا من تقنيات الذكاء الاصطناعي التي يطورها عمالقة التقنية في العالم إنما يلازمها الانحياز تعريفًا بسبب طبيعية بيانات التدريب المستخدمة فيها، والتي كثيرا ما تعكس الفوارق الاجتماعية والأفكار المسبقة. عند تصدير هذه الأدوات إلى الأنظمة التسلطية، يتفاقم هذا الانحياز، بما يعمّق استهداف الفئات المهمشة مثل الناشطين والأقليات والنساء. وعلى سبيل المثال، ثبت أن هامش خطأ أنظمة التعرف على الوجه المستخدمة في المنطقة، يكون أوسع عندما يتعلق الأمر بذوي البشرة السمراء، بما يزيد احتمال وقوع حالات الاعتقال والسجن التعسفي. 

• غياب المحاسبة: قلما يتميز عمل شركات التقنية العملاقة بالشفافية اللازمة لمعرفة ما تنتهي إليه أدوات الذكاء الاصطناعي بعد بيعها للحكومات. وأبدى مشاركون قلقهم لكون هذه الشركات لا تتقصى استخدام هذه التقنيات بعد بيعها أو لا تقيد استخدامها. وعلى سبيل المثال، تبين في سياق الصراع الإسرائيلي الفلسطيني أن شركات تقنية أميركية تسوّق تقنيات تساعد في فرض الرقابة الشاملة وفي الاستهداف العسكري، ولم تُقدِم هذه الشركات، إلا نادرا، على خطوات تحول دون استخدام هذه التقنيات في انتهاك حقوق الإنسان. 

• القوة الاقتصادية والتأثير: ناقش المشاركون كيف باتت هذه الشركات تستغل قوتها الاقتصادية للتأثير في صياغة سياسات وقوانين تناسب مصالحها. على سبل المثال، مارست مايكروسوفت وغوغل ضغطا كبيرا على حكومات في المنطقة لإقرار تشريعات تخدم استثماراتهما، وكثيرا ما قوّض ذلك حقوق الإنسان، وهو ما يثير أسئلة كثيرة عن مسؤولية هذه الشركات عن استخدام هذه التقنيات للتمكين لسياسات القمع. 

• الحاجة إلى الالتزام بالمعايير الدولية: أثار الخبراء عدم اكتراث شركات التقنية الكبرى بتوخي الحيطة عند استثمارها في أسواق المنطقة، وشددوا على الحاجة لتطبيق صارم للمبادئ الدولية الإرشادية الخاصة بحقوق الإنسان، مثل القواعد الأممية التوجيهية الخاصة بالأعمال التجارية وحقوق الإنسان، والتي تحدد ملامح المسؤولية الواقعة على عاتق الشركات في منع ومعالجة ما قد تسببه من انتهاكات.

 

توصيــــات 

1. تطوير أطر قانونية وتنظيمية

• تشريعات وطنية لحماية البيانات: على حكومات المنطقة سنّ وتطبيق تشريعات وطنية شاملة لتنظيم قطاع الذكاء الاصطناعي وحماية البيانات. يجب أن تشتمل هذه التشريعات على تعريفات واضحة للبيانات الشخصية والحيوية، وتترافقَ مع مبادئ توجيهية صارمة تنظم تحصيلها وتخزينها واستخدامها. يجب أن تضمن هذه القوانين التحلي بالشفافية عند استخدام بيانات المواطنين على يد الحكومات والمنظمات الخاصة. يجب أن تنص هذه القوانين التنظيمية على إجراءات عقابية لردع الاستخدام الخبيث، وتشتمل على آليات لمعالجة انتهاكات حقوق الإنسان.

• منع استخدام الذكاء الاصطناعي لأغراض خبيثة: يجب أن تركز القوانين بشكل صريح على مسألة تحوير استخدام الذكاء الاصطناعي لأغراض خبيثة مثل المراقبة الشاملة والتلاعب السياسي والتمييز. يمكن على سبيل المثال تقييد نطاق استخدام تقنيات التعرف على الوجه والتحليل التنبؤي إن ألحق ذلك ضررا بالفئات المستضعفة. يجب أن تتوفر آليات صارمة للإشراف على تطبيق هذه القوانين، من قبيل الهيئات التنظيمية المستقلة، وذلك لضمان الانصياع لهذا القوانين وخضوع الممارسات للأطر الأخلاقية. 

• التعاون الدولي من أجل صياغة معايير أخلاقية تؤطر استخدام الذكاء الاصطناعي: من الأهمية بمكان الاعتراف بالطبيعة العابرة للحدود التي تميز تقنيات الذكاء الاصطناعي، وذلك من أجل تشجيع بناء تعاون دولي يصوغ معايير واضحة وقابلة للتطبيق تسمح باستخدامه وتصديره وفق المعايير الأخلاقية. يمكن أن يشمل ذلك اتفاقات لمنع بيع الحكومات المتسلطة أدوات من قبيل أنظمة المراقبة التنبؤية. من شأن الأطر المتعددة الأطراف، سواء تحت مظلة الأمم المتحدة أو هيئات دولية أخرى، ضمان توافق تقنيات الذكاء الاصطناعي مع معايير حقوق الإنسان العالمية. 

 

2. التمكين للمجتمع المدني

• دعم المنظمات الإقليمية والدولية: تمارس منظمات المجتمع المدني دورا أساسيا في شحذ الوعي بالأبعاد الأخلاقية لاستخدام الذكاء الاصطناعي. على الحكومات والمانحين الدوليين والمعنيين من القطاع الخاص، تقديم الدعم المالي والفني لمنظمات المجتمع المدني الناشطة في مجال حماية الحقوق الرقمية.  يجب أن يهدف هذا الدعم إلى تعزيز تعاون المنظمات المنتشرة في مختلف الدول لتتشارك المواردَ والاستراتيجيات والتجارب

• تزويد الناشطين بأدوات الذكاء الاصطناعي: يحتاج الناشطون والمدافعون عن حقوق الإنسان هم أيضا إلى أدوات متقدمة، ليستطيعوا الحيلولة دون استغلاله لأهداف تسلطية. وعلى سبيل المثال، فإن من شأن أدوات تحليل بيانات وسائل التواصل الاجتماعي أن تساعد في كشف وتوثيق انتهاكات حقوق الإنسان، فيما تستطيع أدوات أخرى رصد حالات الفساد والأضرار التي تُلحَق بالبيئة. تدريب الناشطين على استخدام هذه الأدوات بنجاعة لا يمكّنهم فحسب من أدوات متكافئة، بل يتيح لهم أيضا محاسبة الحكومات والشركات. 

• دعم الحملات الأهلية: على المجتمع المدني أن يعبئ أيضا حملات أهلية للمطالبة بشفافية ومحاسبة أكبر عند استخدام الذكاء الاصطناعي. يمكن أن يشمل ذلك حملات عامة لشحذ الوعي بسياسات استغلال الذكاء الاصطناعي لأهداف خبيثة، وأيضا النضال من أجل توفير حماية قانونية أوسع للمواطنين. 

 

3. تطوير البحوث في المنطقة

• الاستثمار في مشاريع الذكاء الاصطناعي المحلية: على الحكومات والمؤسسات الأكاديمية والكيانات الخاصة الاستثمار في حلول الذكاء الاصطناعي التي تُطوَّر محليا وتمنح الأولوية لمفاهيم العدالة الاجتماعية والمساواة والاندماج. تستطيع مشاريع الذكاء الاصطناعي مثلا أن تركز على تطوير الصحة العامة وتحسين المنظومة التعليمية والتوزيع العادل للموارد بين الفئات المحرومة. من شأن هذه المشاريع أن تتيح أيضا فرص عمل، وتسمح بتطوير خبرات محلية في مجال الذكاء الاصطناعي. 

• البحوث الخاصة بالاعتبارات السياسية والأخلاقية للذكاء الاصطناعي: إن تمويل الأبحاث الأكاديمية التي تتناول الاعتبارات الأخلاقية والسياسية للذكاء الاصطناعي أمر بالغ الأهمية. من شأن هذه البحوث أن تتقصى الانحياز الملازِم لخوارزميات الذكاء الاصطناعي وآثاره الاجتماعية وسبل الحد من أضراره. من شأن التعاون بين الجامعات ومراكز الدراسات والمنظمات الدولية أن يتيح فهما أعمق لدور تقنيات الذكاء الاصطناعي في التمكين للتسلط وسياسات الهيمنة وفي انتهاك حقوق الإنسان. 

• إقامة مراكز بحث إقليمية: يمكن إقامة مراكز بحث إقليمية مختصة في الذكاء الاصطناعي، تجمع باحثين من مجالات مختلفة -مثل القانون والأخلاقيات والإعلام الآلي وحقوق الإنسان- ليعكفوا على تطوير مشاريع متعددة التخصصات تنبري للتحديات الخاصة بالمنطقة. 

 

4. برامج التوعية والتدريب

• برامج التدريب الموجهة للأطراف المؤثرة الأساسية: يجب تطوير برامج تدريب موجهة للناشطين والصحفيين والمحامين ومنظمات المجتمع المدني، لتمكينهم من المعرفة والمهارات اللازمة لفهم تقنيات الذكاء الاصطناعي واستخدامها لأغراض التأثير. يجب أن تتناول هذه البرامج مواضيع مثل كيفية التعرف على تحيز الخوارزميات والتصدي له، واستخدام الذكاء الاصطناعي لمراقبة سلوك الحكومات والتحقيق في جرائم الحرب وفهم الاعتبارات الأخلاقية للذكاء الاصطناعي. 

• شحذ الوعي بمخاطر الذكاء الاصطناعي: يجب ان تركز حملات التوعية على تثقيف الرأي العام في شأن المخاطر والأضرار المحتملة التي يجرّها استخدام الذكاء الاصطناعي دون تأطير تنظيمي. يشمل ذلك التطرق إلى حالات أسيء فيها استخدام الذكاء الاصطناعي، مثل استغلاله لأغراض المراقبة الشاملة، أو التلاعب السياسي، وتعليم الأفراد أساليب حماية حقوقهم الرقمية. يمكن استخدام محتويات مشوقة، مثل الفيديوهات والرسوم البيانية والورشات، لجعل هذه الحملات جذابة.

 


 

[1] في نوفمبر 2024، تناولت مبادرة Democracy Matters Initiative (DMI) أول ثلاثة مواضيع أساسية تلعب دورا حاسما في تعزيز التقدم الديموقراطي في الشرق الأوسط وشمال إفريقيا: “دفاعًا عن الديموقراطية وحقوق الإنسان”. تجدون رابط التقرير عن الحوارات التي أثيرت في النقاش في الرابط التالي: 

https://mideastdc.org/publication/dmi-private-dialogue-one-recap

[2] Universal Periodic Review (UPR). (n.d.). UPR Submission: Morocco. available at

https://upr-info.org/sites/default/files/documents/2017-04/pi_upr27_mar_e_main.pdf

[3] “Data Protection: What you should know about it?” Presentation by Dima Samaro MENA Policy Researcher, Access Now Emna Sayadi MENA Advocacy Lead, Access Now

https://www.slideshare.net/slideshow/access-now-data-protection-what-you-should-know-about-it/121565347


إعداد وتنقيح ياسمين عمر، مديرة مبادرة دعم الديمقراطية – مركز الديمقراطية في الشرق الأوسط (MEDC).