المُقدّمة
مع التحولات التكنولوجية السريعة التي يشهدها العالم، برز الذكاء الاصطناعي كمحور رئيسي في المناقشات حول المستقبل. وفي حين يحمل الذكاء الاصطناعي وعدًا بإحداث ثورة في قطاعات مختلفة، فإن تطبيقاته تثير تساؤلات عميقة، وخاصة في منطقة الشرق الأوسط وشمال أفريقيا، حيث يمكن أن تعمل هذه التقنيات كـ "سيف ذي حدين".
تتمتع الذكاء الاصطناعي بالقدرة على تيسير التحول الإيجابي من خلال تعزيز الشفافية والحكم الرشيد والعدالة الاجتماعية. وفي الوقت نفسه، فإنها تشكل مخاطر كبيرة، بما في ذلك تمكين القمع والمراقبة وتقييد حقوق الإنسان. في نوفمبر 2024، وبموجب قاعدة تشاتام هاوس، عقدت مبادرة الديمقراطية مهمة حوارها الخاص الثاني، التصدي للجهات الفاعلة والروايات المناهضة للديمقراطية. جمعت المناقشة أعضاء المجموعة الاستشارية لـ DMI مع خبراء بارزين في التكنولوجيا والذكاء الاصطناعي وحقوق الإنسان والديمقراطية من المنطقة لتحليل كيفية استخدام الأنظمة الاستبدادية في منطقة الشرق الأوسط وشمال إفريقيا للتكنولوجيا والذكاء الاصطناعي لنشر الروايات المناهضة للديمقراطية، والاستفادة من الأدوات المحلية والدولية، بما في ذلك التأثير من الجهات الفاعلة العالمية. (اعرض المزيد من المعلومات حول أول حوار خاص لـ DMI، الدفاع عن الديمقراطية وحقوق الإنسان، هنا.)
الخلفية والسياق
1. تأثير الذكاء الاصطناعي في منطقة الشرق الأوسط وشمال أفريقيا
وسلط المتحدثون في الاجتماع الضوء على منطقة الشرق الأوسط وشمال أفريقيا باعتبارها حالة دراسية حيوية لفهم تأثيرات الذكاء الاصطناعي. فمن ناحية، تستثمر دول مثل المملكة العربية السعودية والإمارات العربية المتحدة بكثافة في تقنيات الذكاء الاصطناعي، وتستفيد منها لتحسين الخدمات العامة والأمن. ومن ناحية أخرى، غالبًا ما يتم تسليح هذه التقنيات لمراقبة المواطنين وقمع حرية التعبير.
المغرب وتونس
خلال جائحة كوفيد-19، نفذت المغرب وتونس أنظمة التعرف على الوجه كجزء من استجابتهما للصحة العامة. وقد تم نشر هذه الأنظمة في البداية لفرض الامتثال لتدابير مثل ارتداء الكمامات والتباعد الاجتماعي وقيود الحركة. وفي المغرب، طورت السلطات تطبيقًا محمولًا لتتبع الأفراد المعرضين للفيروس. وفي تونس، تم استخدام تقنيات مماثلة لمراقبة الأماكن العامة وضمان الالتزام باللوائح الصحية التي تفرضها الحكومة.
ولكن بمجرد انحسار أزمة الصحة العامة، تم إعادة توجيه هذه التقنيات لأغراض أخرى. وتشير التقارير إلى أن التعرف على الوجه وفي تونس، سلط المشاركون الضوء على مخاوفهم من أن هذه التقنيات، التي تم تطويرها ظاهريًا من أجل الصحة العامة، أصبحت أدوات للسيطرة على حرية التجمع والتعبير، وخاصة خلال موجات الاضطرابات المدنية. وبالمثل، في المغربوامتد استخدام هذه الأدوات إلى تحديد ومراقبة النشطاء المشاركين في الاحتجاجات السلمية.
إن إعادة استخدام أدوات المراقبة هذه تؤكد على الطبيعة المزدوجة لاستخدام تقنيات الذكاء الاصطناعي في المنطقة. فما يبدأ كمبادرة للصحة العامة يمكن أن يتحول بسهولة إلى آليات للسيطرة الاستبدادية، مما يؤدي إلى تآكل الثقة العامة وإثارة تساؤلات خطيرة حول حوكمة مثل هذه التقنيات.
فلسطين
وفي الأراضي الفلسطينية المحتلة، توظف إسرائيل الذكاء الاصطناعي المتقدم وقد أكد الخبراء على دور جمع البيانات البيومترية كحجر الزاوية في هذه الاستراتيجية. ومن الأمثلة الأكثر فظاعة جمع مسح القزحية وغيرها من البيانات الشخصية. البيانات البيومترية من أكثر من مليوني فلسطيني في غزة والضفة الغربية. ثم تُستخدم هذه البيانات لتصنيف الأفراد والتنبؤ بتحركاتهم وانتماءاتهم وسلوكياتهم.
وقد شرح الخبراء بالتفصيل كيف يتم دمج هذه الأنظمة التي تعمل بالذكاء الاصطناعي مع أدوات مثل كاميرات التعرف على الوجه الموضوعة عند نقاط التفتيش، والطائرات بدون طيار المجهزة بقدرات المراقبة، والخوارزميات التنبؤية. وقد سهلت هذه التقنيات الاعتقالات التعسفية، والقتل خارج نطاق القضاء، والعقاب الجماعي. على سبيل المثال، تُستخدم أنظمة الذكاء الاصطناعي لتصنيف الأفراد على أنهم "عاليي الخطورة" بناءً على الأنماط في بياناتهم البيومترية، مما يؤدي غالبًا إلى احتجازهم دون اتباع الإجراءات القانونية الواجبة. وفي بعض الحالات، شارك المشاركون كيف تستهدف هذه التكنولوجيا ليس فقط الأفراد ولكن أيضًا العائلات بأكملها، مما يوسع نطاق المراقبة والعقاب إلى المجتمعات الجماعية.
بالإضافة إلى المراقبة المباشرة، يتم استخدام الذكاء الاصطناعي أيضًا لتحديد الأهداف للضربات الجوية وغيرها من العمليات العسكرية. أنظمة مثل "أين أبي؟وبحسب التقارير، فقد قامت هذه الشركات بتحليل مجموعات كبيرة من البيانات للتنبؤ بوجود أفراد أو مجموعات محددة في المناطق المدنية. وتسمح هذه الأدوات التنبؤية، جنبًا إلى جنب مع التعرف على الوجه والتتبع البيومتري، بالاستهداف الدقيق، مما يؤدي إلى نتائج مدمرة أثناء الحملات العسكرية في غزة.
وهناك بعد آخر يتمثل في استخدام الذكاء الاصطناعي للسيطرة المنهجية والهندسة الاجتماعية. وتُستغل البيانات التي يتم جمعها للحفاظ على نظام الفصل والتمييز، حيث وصف المشاركون غزة والضفة الغربية بأنها "مختبرات تجريبية" لتطوير المراقبة والذكاء الاصطناعي العسكري. ويمثل هذا الاستخدام المنهجي للذكاء الاصطناعي لفرض الاحتلال وتقييد الحركة وإخضاع سكان بأكملهم انتهاكًا خطيرًا لمعايير حقوق الإنسان الدولية.
2. التحديات السياسية والاجتماعية في المنطقة
- غالبًا ما تفتقر الأنظمة السياسية في المنطقة إلى أطر تنظيمية قوية للإشراف على الذكاء الاصطناعي.
- هناك غياب ملحوظ للقوانين التي تحمي الخصوصية والبيانات، مما يترك هذه التقنيات مفتوحة للاستخدام غير الأخلاقي.
- تستغل الحكومات الذكاء الاصطناعي لقمع التعبئة الشعبية، حيث أشار المشاركون إلى أن الذكاء الاصطناعي أصبح أداة لتعزيز السيطرة الاستبدادية على المجتمعات.
نقاط المناقشة الرئيسية
1. الذكاء الاصطناعي كأداة استبدادية
مراقبة الجمهور
- جمع البيانات البيومترية: أصبحت تقنيات الذكاء الاصطناعي قادرة بشكل متزايد على جمع وتحليل البيانات الشخصية والبيومترية على نطاق واسع. ويتم تنفيذ مثل هذه التقنيات في العديد من أجزاء الشرق الأوسط. على سبيل المثال، في دول الخليج مثل المملكة العربية السعودية و الامارات العربيه المتحدهيتم استخدام جمع البيانات البيومترية بشكل متزايد في الأماكن العامة، مثل المطارات، لمراقبة ومراقبة تحركات المواطنين.
- قيود الخصوصية: تُستخدم البيانات البيومترية، مثل بصمات الأصابع والتعرف على الوجه، لأغراض التجسس والمراقبة. وقد استخدمت الحكومات في المنطقة البيانات البيومترية تكنولوجيات المراقبة السرية. غالبًا ما يتم تخزين البيانات التي يتم جمعها من خلال هذه الوسائل إلى أجل غير مسمى ويمكن لأجهزة الاستخبارات الحكومية الوصول إليها لتتبع المعارضين السياسيين والصحفيين ونشطاء حقوق الإنسان. على سبيل المثال، تسلط التقارير الضوء على كيفية استهداف النشطاء في الإمارات العربية المتحدة باستخدام برامج التجسس المدعومة بالذكاء الاصطناعي والتي تحلل البيانات البيومترية والرقمية للتنبؤ بخطواتهم التالية.
- التأثيرات الأوسع للمراقبة الجماعية: إن الانتشار الواسع النطاق للذكاء الاصطناعي للمراقبة الجماعية يفرض عواقب عميقة وبعيدة المدى. ومن بين المخاوف المهمة تطبيع المراقبة، حيث يتأقلم المواطنون تدريجياً مع المراقبة المستمرة، وينظرون إليها كواقع لا مفر منه. ويؤدي هذا الإهمال إلى تآكل المقاومة العامة وإضعاف المطالبات بالشفافية والمساءلة. وعلاوة على ذلك، يشكل تسليح البيانات البيومترية تهديدًا خطيرًا، حيث يمكن للحكومات استغلال هذه المعلومات للتلاعب بالروايات العامة، أو اختلاق أدلة تدين، أو إجراء حملات مستهدفة ضد الأصوات المعارضة. ويزيد من تفاقم هذه المخاطر الافتقار الشامل للمساءلة؛ حيث تعمل العديد من أنظمة المراقبة بالذكاء الاصطناعي تحت ستار من السرية، وتتحايل على التدقيق العام وتحد من فرص اللجوء إلى القانون أو الإشراف التنظيمي.
التلاعب بالمعلومات
- الروبوتات الرقمية: كان استخدام الروبوتات المدعومة بالذكاء الاصطناعي للتلاعب بالخطاب العام موضوعًا متكررًا في المناقشات. المملكة العربية السعوديةعلى سبيل المثال، تغمر الروبوتات التابعة للحكومة منصات التواصل الاجتماعي بمحتوى مؤيد للنظام، مما يخلق وهمًا بالدعم الواسع النطاق. تعمل هذه الروبوتات على تضخيم روايات الدولة، وإسكات الأصوات المعارضة، وتجعل من الصعب على المواطنين العاديين الوصول إلى معلومات غير متحيزة. وأشار المشاركون إلى أن مثل هذا التلاعب لا يحد من حرية التعبير فحسب، بل يشوه أيضًا الإدراك العام، مما يجعل من الصعب على الحركات الشعبية اكتساب الزخم.
- الخوارزميات المتحيزة: تُستخدم خوارزميات الذكاء الاصطناعي، التي غالبًا ما تكون غامضة وغير منظمة، بشكل متزايد للتحكم في المحتوى المعروض للمستخدمين. وتستغل الحكومات هذه الخوارزميات لإعطاء الأولوية للمحتوى الصديق للدولة وقمع الأصوات المنتقدة. على سبيل المثال، في مناطق معينة، يتم تعديل منصات مثل META وX بشكل خوارزمي. الرقابة بشكل غير متناسب وقد أشار المشاركون إلى أن هذه التحيزات ليست متعمدة دائمًا، بل تنشأ من بيانات التدريب التي يتم إدخالها في الخوارزميات، والتي غالبًا ما تعكس التحيزات المجتمعية والسياسية القائمة. وهذا يؤدي إلى تفاقم تهميش المجتمعات الضعيفة وتقويض الخطاب الديمقراطي.
- التحكم في النظام البيئي للمعلومات: بالإضافة إلى تشكيل تصورات الأفراد، تستخدم الحكومات الذكاء الاصطناعي يسيطر على النظام البيئي الأوسع للمعلومات. وتشمل هذه الأنظمة أنظمة الإبلاغ الآلية التي تحدد وتزيل المحتوى الذي يعتبر حساسًا سياسيًا. ويمكن تسليح مثل هذه الأنظمة لإسكات الصحفيين والمدافعين عن حقوق الإنسان وشخصيات المعارضة. وفي بعض الحالات، يمتد التلاعب بالمعلومات إلى تغيير الروايات التاريخية، حيث تُستخدم الذكاء الاصطناعي لإنشاء أو قمع السجلات الرقمية لخدمة الأجندات الاستبدادية.
عسكرة الذكاء الاصطناعي
- الحرب الحديثة: لقد أعاد دمج الذكاء الاصطناعي في العمليات العسكرية تعريف الحرب الحديثة، وخاصة في مناطق الصراع مثل غزة. تقوم أنظمة مثل "Where's Daddy" الإسرائيلية بتحليل كميات هائلة من البيانات للتنبؤ بمواقع الأهداف ذات القيمة العالية، مما يزيد من دقة الضربات الجوية. وفي حين يتم الترويج لهذه الأنظمة لتقليل الأضرار الجانبية، زعم المشاركون أنها غالبًا ما تؤدي إلى عنف عشوائي، حيث أن البيانات والخوارزميات الأساسية ليست محصنة ضد التحيزات أو الأخطاء. إن التحول من اتخاذ القرار البشري إلى الاستهداف المدعوم بالذكاء الاصطناعي يثير مخاوف أخلاقية بشأن المساءلة في الحرب، وخاصة عندما تقع إصابات بين المدنيين.
- المراقبة في مناطق الحرب: بالإضافة إلى التطبيقات العسكرية المباشرة، يتم استخدام الذكاء الاصطناعي في المراقبة المكثفة في مناطق الحرب. حيث تقوم الطائرات بدون طيار المزودة بتقنية التعرف على الوجه وأجهزة الاستشعار المتقدمة بجمع البيانات عن تحركات المدنيين، مما يزيد من عسكرة الحياة اليومية في مناطق مثل غزة والضفة الغربية. ووصف المشاركون كيف تجرد هذه الأنظمة الأفراد من إنسانيتهم، وتجعلهم مجرد نقاط بيانات في خوارزميات تحدد قدرتهم على الوصول إلى الحقوق والحريات الأساسية.
- إدارة اللاجئين: إن دور الذكاء الاصطناعي في إدارة اللاجئين يشكل تطوراً مثيراً للقلق. ففي بلدان مثل لبنان والأردن, أنظمة الذكاء الاصطناعي تصنف اللاجئين وقد أشار المشاركون إلى أن هذه الأنظمة تعمل على ترسيخ التفاوتات القائمة وتعميق الانقسامات المجتمعية، وخاصة في المناطق التي يواجه فيها اللاجئون بالفعل تحديات كبيرة.
- الاستهداف الآلي: كما لفت المشاركون الانتباه إلى استخدام الذكاء الاصطناعي في الاستهداف الآلي في العمليات العسكرية. حيث تقوم أنظمة الذكاء الاصطناعي المتقدمة بتحليل البيانات في الوقت الفعلي من مصادر متعددة، بما في ذلك وسائل التواصل الاجتماعي، وصور الأقمار الصناعية، وقواعد البيانات البيومترية، لتحديد التهديدات المحتملة. ومع ذلك، غالبًا ما تفتقر هذه الأتمتة إلى الشفافية والمساءلة، مما يؤدي إلى أخطاء ذات عواقب مدمرة. في بعض الحالات، تم استهداف الأفراد بناءً على تنبؤات الذكاء الاصطناعي الخاطئة، مما أدى إلى وفيات وتدمير غير مشروع.
2. الذكاء الاصطناعي كأداة لتعزيز الديمقراطية
حماية الحقوق الرقمية
- مشروع نهى: في "مشروع نهى"يمثل هذا المشروع مثالاً رائداً لاستخدام الذكاء الاصطناعي لحماية الحقوق الرقمية، ويستهدف بشكل خاص قضية الإساءة عبر الإنترنت ضد النساء. تعمل هذه المبادرة على تطوير أدوات الذكاء الاصطناعي القادرة على اكتشاف وتحليل المحتوى الرقمي المسيء باللهجات المحلية، وهو أمر صعب بشكل خاص بسبب التنوع اللغوي في المنطقة. بدءًا من الأردن والعراق، يدرب المشروع خوارزمياته على فهم التعبيرات المحلية الدقيقة والسياقات الثقافية لتحديد اللغة المسيئة أو الضارة والإبلاغ عنها. وأكد المشاركون أن هذا النهج ليس ضروريًا فقط لحماية النساء عبر الإنترنت ولكن أيضًا لخلق بيئة رقمية أكثر أمانًا حيث يمكن للأصوات المهمشة المشاركة دون خوف من التحرش. تُظهر خطط توسيع المشروع إلى دول أخرى، مثل مصر، قابليته للتوسع وإمكاناته لتحويل حماية الحقوق الرقمية في جميع أنحاء الشرق الأوسط.
- أتمتة الشفافية: في مجلة الاتحاد الأوروبي، يتم استخدام أدوات الذكاء الاصطناعي لتعزيز الشفافية في الحكم. وتراقب هذه الأنظمة الإجراءات البرلمانية، وتسجل ملاحظات مفصلة وتحلل البيانات لضمان إمكانية الوصول إلى العملية التشريعية ومساءلتها أمام الجمهور. ومن خلال أتمتة المهام الروتينية ولكن الأساسية مثل النسخ والتوثيق وتحليل البيانات، تعمل هذه الأدوات على تحرير الموارد والحد من الخطأ البشري. وأشار المشاركون إلى أنه يمكن تكييف مثل هذه الأنظمة للاستخدام في مناطق أخرى، بما في ذلك الشرق الأوسط، لتحقيق قدر أكبر من الشفافية في هياكل الحكم. على سبيل المثال، يمكن للذكاء الاصطناعي مراقبة عمليات المشتريات الحكومية، وضمان منح العقود بشكل عادل ودون فساد، وبالتالي تعزيز الثقة بين المواطنين وحكوماتهم.زيادة المشاركة المدنية
- تحليل الفساد – الذكاء الاصطناعي للكشف عن الممارسات غير السليمة: تُستخدم أنظمة الذكاء الاصطناعي بشكل متزايد لتحليل الأنماط في البيانات الضخمة للكشف عن الفساد. يمكن لهذه الأدوات غربلة كميات هائلة من المعلومات - مثل المعاملات المالية والعقود الحكومية وسجلات الإنفاق العام - لتحديد المخالفات والحالات المحتملة للفساد. استشهد المشاركون بأمثلة حيث تم نشر خوارزميات الذكاء الاصطناعي بنجاح للكشف عن النشاط الاحتيالي واختلاس الأموال، ومحاسبة المسؤولين الفاسدين. في مناطق مثل الشرق الأوسط، حيث يقوض الفساد النظامي الحكم الديمقراطي في كثير من الأحيان، يمكن أن تكون مثل هذه الأدوات تحويلية. يمكن أن تمكن الصحفيين الاستقصائيين ومنظمات المجتمع المدني والهيئات التنظيمية من العمل كمراقبين، وتعزيز المساءلة والحد من الإفلات من العقاب.
- تحسين توزيع الموارد – الذكاء الاصطناعي لتحقيق العدالة الاجتماعية: وتُستخدَم الخوارزميات أيضًا لتعزيز العدالة الاجتماعية من خلال تحسين تخصيص الموارد العامة. ففي تايوان، على سبيل المثال، استُخدِمت أدوات الذكاء الاصطناعي في المشاريع البيئية لتحديد الاستخدام الأكثر فعالية للموارد المحدودة. وتحلل هذه الخوارزميات البيانات مثل مستويات التلوث، وتوافر الموارد، واحتياجات المجتمع لضمان التوزيع العادل. وأشار المشاركون إلى أنه يمكن تكييف أدوات مماثلة للاستخدام في الشرق الأوسط، حيث غالبًا ما يؤدي التفاوت الاقتصادي وسوء إدارة الموارد إلى تفاقم التوترات الاجتماعية. ومن خلال جعل توزيع الموارد أكثر عدالة وكفاءة، يمكن للذكاء الاصطناعي أن يساعد في معالجة القضايا القديمة مثل عدم المساواة في الوصول إلى الرعاية الصحية والتعليم والبنية الأساسية.التوعية وبناء القدرات
- التعليم التقني - سد فجوة المعرفة: كان أحد الموضوعات الرئيسية للمناقشة هو أهمية تثقيف المجتمعات حول الذكاء الاصطناعي لضمان استخدامه المسؤول. وشدد المشاركون على الحاجة إلى برامج التعليم الرسمي والمبادرات الشعبية لإزالة الغموض عن تقنيات الذكاء الاصطناعي. على سبيل المثال، يمكن أن يساعد إدخال معرفة الذكاء الاصطناعي في المناهج المدرسية الأجيال الشابة على فهم فوائده ومخاطره المحتملة. من ناحية أخرى، يمكن للمبادرات الشعبية أن تستهدف الفئات الضعيفة والناشطين، وتزودهم بالمعرفة والأدوات اللازمة لحماية حقوقهم الرقمية. وزعم المشاركون أن هذا التعليم لا يتعلق فقط بفهم الذكاء الاصطناعي، بل يتعلق أيضًا بتعزيز ثقافة التفكير النقدي، وتمكين المجتمعات من مساءلة أولئك الذين يسيئون استخدام التكنولوجيا ومحاسبتهم.
- تمكين الناشطين - التدريب على الاستخدام الفعال للذكاء الاصطناعي: وقد تم تسليط الضوء على برامج التدريب التي تستهدف العاملين في مجال حقوق الإنسان والناشطين باعتبارها ضرورية لتعزيز الديمقراطية. ومن شأن هذه البرامج أن تزود المشاركين بالمهارات اللازمة لاستخدام أدوات الذكاء الاصطناعي بشكل فعال، وتعزيز قدرتهم على مراقبة انتهاكات حقوق الإنسان، وتوثيق الأدلة، والدعوة إلى التغيير. على سبيل المثال، يمكن للناشطين استخدام أدوات تحليل البيانات المدعومة بالذكاء الاصطناعي لتحديد أنماط القمع الحكومي أو تضخيم الأصوات المهمشة من خلال وسائل التواصل الاجتماعي. كما أكد المشاركون على الحاجة إلى ضمان أن تكون برامج التدريب هذه شاملة ويمكن الوصول إليها، وخاصة بالنسبة للنساء والأقليات، الذين غالبًا ما يكونون في طليعة حركات العدالة الاجتماعية ولكنهم يفتقرون إلى الوصول إلى الموارد التقنية.
3. التحديات القانونية والتنظيمية
الفجوات التشريعية
- الأطر القانونية غير الواضحة والقديمة: وسلط المشاركون الضوء على الغياب الكبير للقوانين واللوائح الشاملة التي تحكم الذكاء الاصطناعي في معظم دول الشرق الأوسط وشمال إفريقيا. ففي هذه الدول، غالبًا ما تفشل الأطر القانونية القائمة في معالجة التقدم السريع في تكنولوجيا الذكاء الاصطناعي، مما يخلق فجوات كبيرة يمكن استغلالها. على سبيل المثال، في تونس، لا تميز القوانين التي تنظم خصوصية البيانات بين البيانات البيومترية (مثل التعرف على الوجه أو مسح القزحية) والبيانات الشخصية (مثل عناوين البريد الإلكتروني أو أرقام الهواتف). ويسمح هذا الافتقار إلى التحديد للحكومات والكيانات الخاصة بإساءة استخدام البيانات البيومترية للمراقبة والتحكم دون مواجهة عواقب قانونية.
- عدم وجود تشريعات لحماية البيانات: في حين أن بعض البلدان في المنطقة، مثل المغرب, لبنان، وتونسوعلى الرغم من أن العديد من الدول قد سنت قوانين لحماية البيانات، إلا أن المشاركين لاحظوا أن هذه القوانين غالبا ما تكون قديمة أو غير مكتملة أو مليئة بالثغرات. على سبيل المثال، يعني الفشل في تنظيم جمع ومعالجة البيانات البيومترية أنه يمكن جمع المعلومات الشخصية الحساسة وتخزينها دون موافقة الأفراد. ولا تتيح هذه الفجوة إساءة استخدام تقنيات الذكاء الاصطناعي في المراقبة الجماعية فحسب، بل تقوض أيضا خصوصية المواطنين وثقتهم في المؤسسات الحكومية والشركات.
- المبالغة في التركيز على الأهداف الاقتصادية: وأشار المشاركون أيضًا إلى أن القوانين المتعلقة بالذكاء الاصطناعي وحماية البيانات في بعض الحالات مدفوعة باعتبارات اقتصادية أكثر من الالتزام بحقوق الإنسان. على سبيل المثال، في الأردن، كانت مايكروسوفت واحدة من العديد من الشركات التي لعبت دورًا مهمًا في صياغة قانون حماية البيانات الذي يعطي الأولوية لتمكين شركات التكنولوجيا الكبرى من الاستفادة من فرص الأعمال القائمة على البيانات. غالبًا ما يهمل هذا النهج الاقتصادي الضمانات الحاسمة للخصوصية الفردية ويترك المواطنين عرضة للاستغلال.
- المعايير الإقليمية المجزأة: ويؤدي غياب المعايير الموحدة في مختلف أنحاء المنطقة إلى تفاقم هذه التحديات. وأكد المشاركون أن الافتقار إلى الأطر القانونية والتنظيمية المنسجمة يخلق فرصاً للأنظمة الاستبدادية لاستغلال التناقضات التنظيمية. على سبيل المثال، قد تختار الشركات أو الحكومات العمل في بلدان ذات قوانين أقل تقييداً، مما يؤدي إلى تقويض المساءلة وحماية حقوق الإنسان.
مسؤولية شركات التكنولوجيا الكبرى
- التواطؤ في الممارسات الاستبدادية: وكان دور شركات التكنولوجيا الكبرى مثل مايكروسوفت وجوجل وغيرهما في تمكين الممارسات الاستبدادية موضوعًا متكررًا في المناقشة. وأشار المشاركون إلى أن هذه الشركات غالبًا ما تقدم أدوات ومنصات الذكاء الاصطناعي المتقدمة لحكومات منطقة الشرق الأوسط وشمال إفريقيا دون تنفيذ الرقابة أو الضمانات الكافية. على سبيل المثال، تقدم هذه الشركات تقنية التعرف على الوجه والتحليلات التنبؤية وبرامج المراقبة للأنظمة المعروفة بميولها الاستبدادية، مما يتيح فعليًا المراقبة الجماعية والقمع.
- تصدير التكنولوجيات المتحيزة وغير المنظمة: وأكد المشاركون أن العديد من أدوات الذكاء الاصطناعي التي طورتها شركات التكنولوجيا العالمية العملاقة متحيزة بطبيعتها بسبب طبيعة بيانات التدريب الخاصة بها، والتي غالبًا ما تعكس عدم المساواة أو التحيزات المجتمعية. وعندما يتم تصدير هذه الأدوات إلى الأنظمة الاستبدادية، يتفاقم التحيز، مما يؤدي إلى استهداف غير متناسب للمجتمعات المهمشة، مثل الناشطين والأقليات والنساء. على سبيل المثال، ثبت أن أنظمة التعرف على الوجه المستخدمة في المنطقة لديها معدلات خطأ أعلى للأفراد ذوي درجات لون البشرة الداكنة، مما يزيد من احتمالية الاعتقالات أو الاحتجازات غير القانونية.
- انعدام المساءلة: غالبًا ما تعمل شركات التكنولوجيا الكبرى دون قدر كافٍ من الشفافية فيما يتعلق بكيفية نشر أدوات الذكاء الاصطناعي الخاصة بها من قبل الحكومات. أعرب المشاركون عن قلقهم من أن هذه الشركات لا تراقب بشكل كافٍ أو تحد من كيفية استخدام تقنياتها بمجرد بيعها. على سبيل المثال، في سياق إسرائيل وفلسطين، وجد أن بعض شركات التكنولوجيا الأمريكية توفر أدوات تسهل المراقبة الجماعية والاستهداف العسكري. ومع ذلك، هناك القليل من الأدلة التي تشير إلى أن هذه الشركات تتخذ خطوات لضمان عدم استخدام منتجاتها لانتهاك حقوق الإنسان.
- القوة الاقتصادية والنفوذ: كما ناقش المشاركون كيف أن النفوذ الاقتصادي لهذه الشركات يمنحها نفوذاً كبيراً في صياغة السياسات والقوانين بما يتناسب مع مصالحها. على سبيل المثال، مارست مايكروسوفت وجوجل ضغوطاً نشطة على الحكومات في المنطقة لتمرير تشريعات مواتية لعملياتها، غالباً على حساب حماية حقوق الإنسان القوية. وهذا يثير تساؤلات أخلاقية خطيرة حول مسؤولية هذه الشركات في السياقات التي تساهم فيها تقنياتها في القمع.
- الحاجة إلى العناية الواجبة: وأكد الخبراء على افتقار شركات التكنولوجيا الكبرى إلى العناية الواجبة عند دخول الأسواق في المنطقة. وأكدوا على الحاجة إلى تطبيق أكثر صرامة للمبادئ التوجيهية الدولية لحقوق الإنسان، مثل المبادئ التوجيهية للأمم المتحدة بشأن الأعمال التجارية وحقوق الإنسان، والتي تحدد مسؤولية الشركات عن منع ومعالجة الآثار السلبية على حقوق الإنسان.
توصيات
1. تطوير الأطر القانونية والتنظيمية
- التشريعات الوطنية لحماية البيانات: يتعين على الحكومات في مختلف أنحاء المنطقة أن تضع وتنفذ تشريعات وطنية شاملة لتنظيم الذكاء الاصطناعي وحماية البيانات. وينبغي أن يشمل ذلك تعريفات واضحة للبيانات الشخصية والبيومترية، إلى جانب إرشادات صارمة لجمعها وتخزينها واستخدامها. وينبغي لهذه القوانين أن تضمن الشفافية في كيفية تعامل الحكومات والمنظمات الخاصة مع بيانات المواطنين. ويجب أن تتضمن هذه اللوائح أيضا عقوبات على سوء الاستخدام وآليات للانتصاف في حالات انتهاك الحقوق.
- منع إساءة استخدام الذكاء الاصطناعي: ينبغي أن تستهدف القوانين بشكل خاص إساءة استخدام الذكاء الاصطناعي لأغراض مثل المراقبة الجماعية والتلاعب السياسي والتمييز. على سبيل المثال، يمكن فرض قيود على استخدام التعرف على الوجه والتحليلات التنبؤية في سياقات قد تضر بالمجتمعات المهمشة. وينبغي استكمال هذه القوانين بآليات إشراف قوية، مثل الهيئات التنظيمية المستقلة أو أمناء المظالم، لمراقبة الامتثال وإنفاذ الممارسات الأخلاقية.
- التعاون الدولي بشأن المعايير الأخلاقية للذكاء الاصطناعي: وإدراكاً للطبيعة العابرة للحدود الوطنية لتقنيات الذكاء الاصطناعي، فمن الأهمية بمكان تعزيز التعاون الدولي لوضع معايير واضحة وقابلة للتنفيذ للاستخدام الأخلاقي وتصدير الذكاء الاصطناعي. وقد يشمل هذا اتفاقيات بشأن حظر بيع أدوات معينة للذكاء الاصطناعي، مثل أنظمة المراقبة التنبؤية، للأنظمة الاستبدادية. ومن الممكن أن تضمن الأطر المتعددة الأطراف، ربما في إطار الأمم المتحدة أو غيرها من الهيئات الدولية، أن تتوافق تقنيات الذكاء الاصطناعي مع مبادئ حقوق الإنسان العالمية.
2. تمكين المجتمع المدني
- دعم المنظمات الإقليمية والدولية: تلعب منظمات المجتمع المدني دورًا حاسمًا في رفع مستوى الوعي بالآثار الأخلاقية للذكاء الاصطناعي. وينبغي للحكومات والجهات المانحة الدولية وأصحاب المصلحة من القطاع الخاص تقديم الدعم المالي والفني لمنظمات المجتمع المدني المنخرطة في الدفاع عن الحقوق الرقمية. وينبغي أن يهدف هذا الدعم أيضًا إلى تعزيز التعاون بين المنظمات في مختلف البلدان لمشاركة الموارد والاستراتيجيات وأفضل الممارسات.
- تجهيز الناشطين بأدوات الذكاء الاصطناعي: ولمواجهة إساءة استخدام الذكاء الاصطناعي من قِبَل الأنظمة الاستبدادية، يحتاج الناشطون والمدافعون عن حقوق الإنسان إلى الوصول إلى نفس الأدوات المتقدمة. على سبيل المثال، يمكن للأدوات التي تحلل بيانات وسائل التواصل الاجتماعي أن تساعد في رصد وتوثيق انتهاكات حقوق الإنسان، في حين يمكن لأدوات أخرى تتبع الفساد أو الضرر البيئي. إن تدريب الناشطين على استخدام هذه الأدوات بشكل فعال لن يعمل على تسوية المنافسة فحسب، بل سيمكنهم أيضًا من محاسبة الحكومات والشركات.
- تعزيز الدعوة الشعبية: ويتعين على المجتمع المدني أيضاً حشد المجتمعات الشعبية للمطالبة بمزيد من الشفافية والمساءلة في نشر الذكاء الاصطناعي. ويمكن أن يشمل ذلك حملات عامة لزيادة الوعي بكيفية إساءة استخدام الذكاء الاصطناعي والدعوة إلى توفير حماية قانونية أقوى للمواطنين.
3. تعزيز البحث الإقليمي
- الاستثمار في مشاريع الذكاء الاصطناعي المحلية: ينبغي للحكومات والمؤسسات الأكاديمية والكيانات الخاصة أن تستثمر في حلول الذكاء الاصطناعي التي يتم تطويرها محليًا والتي تعطي الأولوية للعدالة الاجتماعية والمساواة والشمول. على سبيل المثال، يمكن لمشاريع الذكاء الاصطناعي أن تركز على تحسين الصحة العامة، أو تعزيز أنظمة التعليم، أو ضمان التوزيع العادل للموارد في المجتمعات المحرومة. كما يمكن لهذه المشاريع أن تخلق فرص عمل وتبني الخبرة المحلية في مجال الذكاء الاصطناعي.
- البحث الأخلاقي والسياسي: إن تمويل الدراسات الأكاديمية حول الآثار الأخلاقية والسياسية للذكاء الاصطناعي أمر بالغ الأهمية. ويمكن لمثل هذه الأبحاث استكشاف التحيزات المتأصلة في خوارزميات الذكاء الاصطناعي، وتأثيراتها المجتمعية، وسبل التخفيف من الضرر. ومن الممكن أن يوفر التعاون بين الجامعات ومراكز البحوث والمنظمات الدولية فهماً أعمق لكيفية تقاطع تكنولوجيا الذكاء الاصطناعي مع قضايا مثل الاستبداد والمراقبة وحقوق الإنسان.
- إنشاء مراكز بحثية إقليمية: ولتشجيع التعاون والابتكار، يمكن إنشاء مراكز إقليمية لأبحاث الذكاء الاصطناعي. ومن الممكن أن تجمع هذه المراكز خبراء من مجالات متنوعة ــ مثل القانون والأخلاق وعلوم الكمبيوتر وحقوق الإنسان ــ للعمل على مشاريع متعددة التخصصات تعالج التحديات المحددة التي تواجهها المنطقة.
4. التوعية والتدريب
- برامج التدريب لأصحاب المصلحة الرئيسيين: وينبغي وضع برامج تدريبية مستهدفة للناشطين والصحفيين والمحامين ومنظمات المجتمع المدني لتزويدهم بالمعرفة والمهارات اللازمة لفهم تقنيات الذكاء الاصطناعي والاستفادة منها. ويمكن أن تغطي هذه البرامج مواضيع مثل كيفية اكتشاف التحيز الخوارزمي ومكافحته، واستخدام الذكاء الاصطناعي لمراقبة تصرفات الحكومة، والتحقيق في جرائم الحرب، وفهم الأبعاد الأخلاقية للذكاء الاصطناعي.
- رفع مستوى الوعي حول مخاطر الذكاء الاصطناعي: ينبغي أن تركز حملات التوعية على تثقيف عامة الناس بشأن المخاطر والأضرار المحتملة لتطبيقات الذكاء الاصطناعي غير المنظمة. ويشمل ذلك تسليط الضوء على الحالات التي أسيء فيها استخدام الذكاء الاصطناعي، كما هو الحال في المراقبة الجماعية أو التلاعب السياسي، وشرح كيفية حماية الأفراد لحقوقهم الرقمية. ويمكن استخدام المحتوى الجذاب، مثل مقاطع الفيديو والرسوم البيانية وورش العمل، لجعل هذه الحملات أكثر سهولة في الوصول إليها.
تم إعداده وتحريره بواسطة ياسمين عمر, مدير مبادرة دعم الديمقراطية – مركز الشرق الأوسط للديمقراطية (MEDC)
|
هربنا من هذا الكابوس السابق: الحقوق العربية في مواجهة الدعم الإضافي في الولايات المتحدة