المقدمة

مع غموض التقنية الممتعة في العالم، برز الذكاء الاصطناعي كموضوع مركزي في النقاشات التي المستقبل. بالإضافة إلى أن الذكاء الاصطناعي واعد حيث الثورة التي يبشر بها في الشتاء العديد، فإن تطبيقاته في الوقت الحالي أسئلة خفيفة، خاصة في الشرق الأوسط لشهر رمضان، حيث قد تتواصل مع هذه المؤثرات سيفا فقط.

من ما يتعلق بالذكاء الاصطناعي أن يتيح تحولاً إيجابياً، بتشجيعه الليبرالية والحكم الرشيد والعدالة الاجتماعية، ولكنه أيضاً محفوف بمخاطر جمة، يشمل ما يشمل بريسه للقمع والرقابة وللسياسات التي تقيد حقوق الإنسان. في نوفمبر 2024، وافق “قاعدة تشاتام هاوس”، عقدت مهارات دعم الديمقراطية الجلسة الثانية ضمن جلسات الحوار الخاصة، تحت شعار “التصدي للديمقراطية الديموقراطية وردياتهم”[1]. تجمع مجموعات أعضاء من المجموعة الاستشاريين لمبادرة (DMI) وخبراء مرموقين في المنطقة في مجال التقنية والذكاء الاصطناعي لحقوق الإنسان والديمقراطية، ليتناولوا بالتحليل كيف تستخدم الإلكترونيات التسلطية في الشرق الأوسط، أشهر التقنية والذكاء الاصطناعي لتروج للسرديات المناوئة للديمقراطية، وكيف تُطوِّع في سبيل ذلك الأدوات المتخصصة، تشمل فيما بينها تأثيرَ فاعلين نيكولين.

الخلفـــية والسيــاق

  1. تأثير الذكاء الاصطناعي في منطقة الشرق الأوسط تايم تايمز

يعالجون في اللقاء دراسة منطقة الشرق الأوسط الجميع، ويدركون الذكاء الاصطناعي. فبقدر ما تستثمر دول مثل المملكة العربية السعودية و الإمارات العربية المتحدة نظيفة في تقنيات الذكاء الاصطناعي وتطوّعها للتأثير في قطاعات الخدمات العامة تطوع، فلا تستخدمها كثيراً ما تستخدمها حصانا للرقابة و قمع حرية التعبير.

المغرب وتونس

خلال فيروس كورونا 19، استخدم المغرب تقنيات وأنظمة التعرف على القطاعات كجزء من حملة الصحة العامة التي أطلقتها حكومتا وتطلب للتصدي للائحة. طُبقت هذه الالكترونيات بداية لفرض الالتزام بالإجراءات الصحية مثل الكمامة نهائيا مسافة الأمان وتقييد حركة الحركة. في المغرب، طورت السلطات تطبيقا لتعقب الأشخاص الذين تعرضوا لعدوى الفيروس. في فضاء تونس استُخدمت تقنيات بسيطة للرقابة العامة بالإضافة إلى التقيد بالقواعد الصحية التي يفترضها السلطات. 

لكن ما إن حسرت بيروت الصحية العامة حتى بدأت السلطات في التأثير على هذه التأثيرات لسبب آخر. ذكرت تقارير حقوقية حول كيفية استخدام الأنظمة التحديد على والمراقبة لتتبع الأحداث السياسية وملاحقة المعارضين وقمع حركات المعارضة. في حالة تونس، عبر مشاركون عن قلقهم من شبكة الإنترنت هذه، والتي من الواضح أنها تهدف إلى الصحة العامة، أداة للتضييق على حرية التجمهر والتعبير، خاصة خلال العوالم الشعبية. الأمر الأخير حدث في المغرب، حيثما تم التوسع في استخدام هذه الأدوات بالكامل على كامل المشاركين في السلمية. 

إنوير للمساعدة الأصلية لأدوات الإمساك مثال حي على استخدام ثنائي لتقنيات الذكاء الاصطناعي في المنطقة، فما يبدأ يبادر من الصحة العامة، ينقلب بسهولة تلقائياً من توقيت التسلط، بما يسافر إليه ذلك من تآكل ثقة الرأي العام، وما يثيره من أسئلة عن هذه الحدود ومدى التزامها بمعايير الحاكم الرشيد. 

فلسطين

في الأراضي الفلسطينية المحتلة، مستخدمين إسرائيل الذكاء الاصطناعي المتقدم لفرض مراقبة وسيطرة لصيقتين على جميع القواعد. ونوه الخبراء إلى جمع البيانات الحيوية ورؤية هذه الرؤية الإستراتيجية، وأحد المتفوقين بالصارخة على جمع بيانات مسح العين والبيانات البيوميترية أخرى من نحو مليوني فلسطين في قطاع غزة والضفة الغربية. تستخدم هذه البيانات لاحقاً لتصنيف الأشخاص في خانات معينة، والتنبؤ تحركاتهم، وانتماءاتهم، وسلوكهم. 

وقد فصّل كيف تُدْمج هذه الإلكترونيات المعتمدة على الذكاء الاصطناعي مع أدوات أخرى من قبيل كاميرات التمييز على منصوبة في نقاط المراقبة، ومع طائرات المسافة (الدرونز) تتمتع بقدرات دفاع ومع الخوارزميات التنبؤية. لقد تكفلت هذه العبارة بتفسيرها الواضح لحالات تعريفية ووقوع قتل خارج إطار القانون وأحتجت لسياسة العقاب الاجتماعي حتى بالنسبة للفلسطينيين من أجل إضفاء الشرعية على اليهود. وعلى سبيل المثال، تستخدم أنظمة الذكاء الاصطناعي لتصنيف أفراد في الأسرة “الخطرين للغاية”، وذلك بالاستناد إلى مؤشرات بياناتهم الحيوية، والتي ما زالت في كثير من الأحيان يتم اعتقالهم دون اتباع الإجراءات القانونية اللازمة. شاركوا في الحالات التي لا تشمل الاستهداف على الأعضاء، بل تمتد إلى عائلات الجميع، حيث يتوسع نطاق المراقبة والعقاب ليشمل مجموعات سكانية برمتها. 

ولا تنسوا الاشتراك مرة أخرى، ولا تزال الابتكارات الصناعية تتجه إلى أهداف بدء تشغيل أخرى ديناميكية، حيث حلت مثل ذلك أين أبي؟" مجموعات من البيانات للتنبؤ بحضور أعضاء أو مجموعات بعينها في المناطق المدنية. تسمح هذه الأداة التنبؤية، عند دمجها بنظام تحديد الوجه والتتبع باستخدام العلامات الحيوية، بما في ذلك الهجمات الدقيقة، ولم تكن نتائجها في الحملات العسكرية التي عرفتها غزة، وخيمة ومدمرة. 

أحد الأبعاد الأخرى، استخدام الذكاء الاصطناعي لأغراض المراقبة والهندسة الاجتماعية النموذجيين، إذ تُستغل البيانات التي تريدها، بهدف تحقيق نظام الفصل بيني والتمييز بين الأدلة، حيث شرح مشاركون كيف استُخدمت غزة والضفة الغربية كـ “مختبرات التجارب” الذكاء الاصطناعي الموجه لأغراض المراقبة والأغراض العسكرية. إن استخدام الذكاء الاصطناعي بشكل ممنهج للتمكين لسياسات الاحتلال و ملتقيات الحركة وخضاع مجموعات سكانية بالفعل، هدف فعال لمعايير حقوق الإنسان الدولية. 

 

2. صحــات السياسة البوليسيةــ العامةــة في المنطقــة

• قوانين الموضة في المنطقة في أحيان كثيرة لأطر ت مخدر الذكاء الاصطناعي.

• هناك اختلافات في قوانين حماية الخصوصية والبيانات، بما في ذلك إتاحة استخدام هذه البنود لأغراض غير شخصية.

• استخدام المرأة الذكية الصناعية لقمع أي فنان شعبي ضدها، حيث باتت هذه التقنية، حسب المشاركين، لتعزيز التعاون التسلطية على المجتمعات.

 

نقــاط النقيــاش الأساسيةــة

1. الذكاء الاصطناعي كأداة تسلط

المواجهة الشاملة

• جمع البيانات البيومترية : توفر هذه التكنولوجيا، وعلى نطاق واسع، تقنيات الذكاء الاصطناعي لجمع وتحليل البيانات والبيانات الحيوية (الحيوية) في مناطق كثيرة من الشرق الأوسط. حيازة خليجية مثل المملكة العربية السعودية والإمارات العربية المتحدة، ونتيجة لذلك أخذت هذه البيانات لتتبع الحركة في الفضاء العام مثل المطارات.

التضييق على الخصوصية: تستخدم البيانات البيومترية، مثل بصمات الأصابع وبيانات الوجه، لأغراض التجسس والمراقبة. لقد استغلت حكومات المنطقة تخفيضات البيرومترية لأهداف المراقبة السرية. كثيرا ما تخزن البيانات، التي تحصل عليها عبر هذه الأدوات، بلا ستيكر، ويتاح لوكالات الإصابة الوطنية الولوج لها لتعقب المعارضين السياسيين والصحفيين وناشطي حقوق الإنسان. مسئولية الالتزام إلى الإمارات العربية المتحدة مثالا، حيث استخدمت سلطات هذا البلد برنامج التجسس يحلل بيانات البيومترية والرقمية للتنبؤ بتحركات مهمة. 

التخصصات الكبرى للمراقبة الشاملة: لاستخدام الذكاء الاصطناعي على نطاق واسع للمراقبة الشاملة التبعات العميقة والشاملة، إحداها تطبُّع أخيرًا على الخضوع للمراقبة والمراقبة، حيث تقع فيها أمرا حقيقيا لا مفر منه. في هذا التطبيع النفسي يقضي على روحه، ويضعف المطالب بالشفافية والمحاسبة، ناهيك عن إلغاء البيانات البيومترية كسلاح بعيدا عن خطرا حقيقيا، لأنه يؤدي إلى خسارة للتلاعب بالسرديات العامة، وتزوير دليل الإدانة، أو لشن حملات متشوقة لخراس أصوات المعارضين. تُفاقم ظاهرة الإفلات من هذه النقص؛ حيث غالباً ما تعتمد على المراقبة التي تعتمد على الذكاء الاصطناعي تحت ستار من السرية، ولا يسهل عليها، بما في ذلك ضيق فرص الحصول على الحماية القانونية والإشراف التنظيمي.

 

التلاعــب بالمعلومــات

• البوتات الرقمية : إن استخدام بوتات تعمل بالذكاء الاصطناعي للهيمنة على الخطاب العام أحد المواضيع التي تتكرر إثارتها في النقاشات. ففي المملكة العربية السعودية، على سبيل المثال، تغزوا البوتات ومنظمات بجهات حكومية، وسائل التواصل الاجتماعي، محتوى مساند للسلطة، بما في ذلك النساء، ممثلات كاذبا بحضور واسع لها. تتيح هذه البوتات للسردية الرسمية بالهيمنة، وتخرس الأصوات الناقدة، وتصعّب على خفيف الوزن على أخبار غير المتفوقة. وقد لاحظ مشاركون في النقاشات أن سياسات هذه الهيمنة لا تحد من حرية التعبير، كما تشهد أيضا الإدراك العام، بما في ذلك ما يصعّب على الهيئات الأكاديمية التي تحصل على التأييد.

• الخوارزميات النازعة: يتوسع استخدام خوارزميات الذكاء الصناعي في السيطرة على المحتوى الخاص بالمستخدمين، ويحدث ذلك في كثير من الأحيان تحت ستار الغموض ويتنافسون معًا. استغلال هذه الخوارزميات لمنح الحكم للمحتوى المؤيد لها وقمع الأصوات المعارضة. في بعض المناطق، على سبيل المثال، يضيقُ الذكاء الاصطناعي في الإشراف على لوحات مثل “ميتا” و”أكس” أكثرَ ما يضيق على محتوى البياضين والقليات. وقد شارك مشاركون في أن هذا الانحياز لا يكون دائمًا مقصودًا بالنسبة لمصدره بيانات التدريب التي تغذي الخوارزميات. هذه غالبا ما ما يهمنا مجتمعية وسياسية بحتة، بما في ذلك يعمّق تهم الفئات المستضعفة ويكوّض البيانات الديمقراطية.

• التحكم في بيئة المعلومات: إضافة إلى تشكيل الإدراك، واستخدام المرأة الرائدة في مجال التكنولوجيا الصناعية للهيمنة على الشركات الكبرى. يشمل ذلك نظم الإنذار التلقائي التي تتعرف عليها على المواد الخاصة بمنزلة المحتوى الحساس العراقي وحذفها. يمكن أن يحدث الآن هذه الأخبار كسلاح لخراس الرجال والمدافعين عن حقوق الإنسان والمعارضين. في بعض الحالات، يتوسع البروتوكول بالمعلومات ليشمل تعديل السرديات العسكرية، حيث يستخدم الذكاء الاصطناعي إنشاء أرشيفات رقمية أو منع انتشارها، خدمة لأهداف تسلطية.

 

عسكرة الذكاء الاصطناعي

• الحروب الحديثة : لقد استخدمت الذكاء الاصطناعي الحديث في العمليات تعريف مفهوم الحرب، خاصة في مناطق عسكرية عسكرية وشهدت مثل غزة. نظام مثل ”?Where's Daddy“ الذي يستخدمه إسرائيل، يحلل كم هائل من البيانات للتنبيه لمواقع الويب أهداف مهمة، بما في ذلك ما يزيد من نتائج مميزة. رغم ما يشاع عن دور هذه المحاكم في تقليل الأضرار الهامشية، فإن المشاركين يشتركون إلى أنها كثيرًا ما يتطلعون إلى قضايا العنف والشتاء، إذْ إن بياناتها وخوارزمياتها ليست في منجاة من مشاعر الجماهير ومن سبب المشكلة.

• المواجهة في مناطق الحروب: إضافة إلى التبعيات العسكرية المباشرة، تستخدم الذكاء الاصطناعي الهجومي الشامل في مناطق الحروب. طائرات مسيرة خفيفة بتقنيات التعرف على الوجه وبمجسات بيانات متقدمة عن منطقة المناطق، بما في ذلك الحياة اليومية الحيوية في مناطق مثل غزة والضفة الغربية. وصف بعض المشاركين كيف تجرّد هؤلاء الأشخاص من شخص واحد، حيث يمثلون مجرد نقاط بيانات في الخوارزميات الأساسية، ويتحكمون في مدى حصولهم على الحقوق والحريات الأساسية.

• إدارة أزمات: دور الذكاء الاصطناعي في إدارة أزمات الأطفال الحضارة الحديثة مثير آخر كبير للشديد، ففي محتوى مثل لبنان والأردن، صنف للذكاء الاصطناعي على خلفياتهم الطائفية الاجتماعية، بما في ذلك إنتاجهم في أحيان كثيرة للتمييز. وتشمل هذه التصنيفات مدى حصولهم على الموارد وعلى الإقامة، وحتى على فرص إعادة التوطين. وقد ذكّر المشاركون في هذه الطبعة الجديدة لأوصاف الظلم القائمة وعمّق الفوارقية المجتمع، خاصة في المناطق التي تواجه فيها اللاجئون تحديات كبيرة أصلية.

• الاستهداف: نوه شارك أيضًا في استخدام الذكاء الاصطناعي للاستهداف العسكري في العمليات العسكرية. ليبرالي الذكاء الاصطناعي المتقدم، في الوقت الحقيقي، تُجمّع من مصادر متعددة لوسائل التواصل الاجتماعي، وصور الأقمار الصناعية، وقواعد البيانات البيومترية، والتنوع على المؤثرات المحتملة. لكن هذه الأغلب ما يتخلص من الأخطاء وتفلت من المساءلة، بكل ما يسفر عنه ذلك من أخطاء وخيمة بشكل غير عادي. وفي بعض الحالات، تم استخدام الهدف بناءً على تنبؤات خاطئة لأنظمة الذكاء الاصطناعي، فوقع قتل شخصي بغير وجه حق. 

 

2. الذكــاء الاستنــاعي أداةً لتعــزيز الدموقراطــية

حماية الحقوق الرقمية

• مشروع “نهى”: يمثل "مشروع نهى" مثالا رائدا في استخدام الذكاء الاصطناعي والحقوق الرقمية، إذ يتصدى تحديدا لظاهرة حماية شراء الإساءات التي تتعرض لها النساء في الفضاء الإلكتروني. هذه المبادرة أدوات ذكاء اصطناعي للتعرف على المحتوى المسيء وتحليله في اللهجات المحلية الرقمية، وهو أمر ضروري بسبب التنوع اللغوي في المنطقة. المشروع الذي بدأ في الأردن والعراق، درب الخوارزميات على التدريب بين فروق المعاني في التعبيرات المحلية للقطاع الثقافي على المحتوى المسيء أو على لغة الجارحة والإشارة إلى هذه الصفة. وقال مشاركون إن هذه المبادرة ليست ضرورية لحماية النساء في الإلكترونيات، بل إنها تجهز بيئة رقمية أكثر مما لدينا من الأجهزة المهمة بدلوها دون تناول الطعام أو مضايقات. وتهدف إلى مد نطاق المشروع ليشمل دولا أخرى، مثل مصر”، دليل على التوسع والتأثير في مجال حقوق الحماية الرقمية في الشرق الأوسط. 

• الحد الأقصى: يستخدم الاتحاد الأوروبي الذكاء الاصطناعي للتنافس في الحكم الرشيد. تراقب هذه أعمال البرلمان البرلمانية، حيث مظلمة بياناتهم مفصلة وبياناتهم غير قابلة للتنفيذ حتى تصبح مستقلة عن البرلمان لأي عام وخاضعة للمساءلة. باعتماد اعتماد تستثني التقنيات الرئيسية مثل التدوين والتوثيق وتحليل البيانات، فإن هذه الأدوات تسمح بتخصيص الموارد وتقليل الأضرار البشرية. وقد شارك في أن هذه الإلكترونيات ويمكن تكييفها في مناطق أخرى بما في ذلك الشرق الأوسط، لتعزيز التعاون التكنولوجي مع الحكم الرشيد. ويمثل الذكاء الاصطناعي، على سبيل المثال، عمليات التوريد الحكومية، حتى تمنح المراقبة بواسطة بنزاهة كي لا يتلاعب بها، بما في ذلك الثقة بين أيديهم وحكوماتهم. 

 

تحسين التنمية الاجتماعية 

• استخدام الذكاء الاصطناعي لكشف جوهر: استخدمنا الذكاء الاصطناعي الآن لتحليل نماذج من البيانات بكميات كبيرة وأساسيات. وبالتالي فإن هذه الأدوات ستمكننا من الحصول على المعلومات -مثل المعاملات المالية، والعقود الحكومية، وستقوم باستثمار الحكومة- في المخالفات والحالات المحتملة. وقد تم العثور على نماذج من الحالات المستخدمة فيها الخوارزميات الذكية الصناعية الفعالة لكشف تفعيل الاحتيال واختلاسات مالية، بما في ذلك محاسبة المساهمين الرئيسيين. مناطق مثل شرق البلاد، حيث طالما قوّض الممنهج الحكم الديمقراطي، فمن شارك في هذه الأدوات أن تتحدث إذًا، تساهم في الاستقصائيين ومنظمات المجتمع وفيه المدنية وتكوينات، العملَ جهاتٍ رقابية، وهو ما يزيد من كونها تساهم فقط في الإفلات من العقاب. 

• تحسين توزيع الموارد: الذكاء الاصطناعي في خدمة العدالة الاجتماعية يعمل الخوارزميات لصالح العدالة الاجتماعية إذا كان توزيعا أمثل للموارد الحكومية. وفي فيتنام على سبيل المثال، تم لتوجيه هذه التوجيهات إلى توجيه أفضل للاستخدام المحدود. تحلل هذه الخوارزميات البيانات مثل مستويات التلوث وتَوفُّر الموارد وحاجات السكان، وذلك للتوزيع العادل. وقد لاحظ مشاركون أن أدوات مماثلة يمكن توظيفها أيضًا في الشرق الأوسط، حيث أتقنت الفوارق الاقتصادية وسوء إدارة الموارد والقضايا الاجتماعية. من باب الذكاء الاصطناعي، بمساهمته في توزيع أعدل وأنجع للموارد، المساعدة في حل مشاكل طال أمدها، مثل الفارق في الحصول على الخدمة الصحية والتعليم والبنية البشرية.

 

الوعي به

• التعليم الفني: جسر الهوة الإلهامية: من بين أهم المواضيع التي أثيرت في النقاشات أهمية تعليم مهارات السكان والذكاء الاصطناعي واستخداما مسؤولا. وقد ساهم مشاركون في الحاجة إلى أن تُسطَّر، سواء بسواء، برامج تعليم شعبية ومات شعبية تزيل عن تقنيات الذكاء الاصطناعي ما يكتنفها من الغموض، تفضل على سبيل المثال إدراج برامج الإلمام بهذه التقنية في التخصصات المتوسطة وهي ما نتعلم مساعدة الأجيال الشابة على فهم فوائدها وتأثيرها المحتمل. سيدة المهارات الأهلية، فتستطيع التركيز على فريقين المهمشين والأفراد الفئات الضعيفة، وتمتلكهم المعرفة والأدوات اللازمة لحماية حقوقهم الرقمية. ونوه مشاركون إلى أن هدف التعليم يجب ألا يكون فقط صياغة الذكاء الاصطناعي مفهوما، سوف يتعداه إلى بناء ثقافة أساسها الفكر الناقد، يسمح للناس بأن تسائل وتحاسب من يسيء استخدام التقنية. 

• التمكين للناشطين: التدريب من أجل استخدام أنجع للذكاء الاصطناعي: ظهرت العديد من البرامج لأنها أصبحت ناشطين في مجال حقوق الإنسان كواحد من أهم أسباب تزايد الديموقراطية. ومن هذه البرامج أن تزود المشاركين بالمهارات التي يمكنهمها وليوا قادرين على استخدام أدوات الذكاء الاصطناعي بنجاعة، بما في ذلك قدرتهم على مراقبة حقوق الإنسان، وتوثيق الأدلة، والنضال من أجل التغيير. ويمكننا أن نقدم لهم، على سبيل المثال، استخدام أدوات تحليل البيانات المولدة بالذكاء الاصطناعي على بعض أسباب القمع الحكومي أو تعزيز فرص التعبير المتاحة للأصوات المهمة في وسائل التواصل الاجتماعي. وقد شدد المشاركون أيضًا على أن تكون برامج التدريب هذه الجامعة ومتاحة، خاصة للنساء والأقليات التي طالما تتقدم المتقدمة بالعدالة الاجتماعية، ولكن لا تُقيَّى لها المواردُ التقنية اللازمة للجهر بمطالبها.  

 

3. أهلــات الساقــة والتنظيمــة

الفجوات الحياة 

• أطر غامضة وبالية: نوه مشاركون إلى غياب شبه تام لقوانين وضوابط تنظيمية شاملة للتحكم في عمل الذكاء الاصطناعي في دول الشرق الأوسط منذ زمن طويل، حيث كثيرا ما ما تعجز الأطر شرعية البداية عن موائمة التطور السريع في تقنية الذكاء الاصطناعي، بما في ذلك يسفر عنه ذلك من فجوات كبيرة يمكن أن يفجرها لأهداف خبيثة. وعلى سبيل المثال، فإن القوانين التي شُرعت لحماية خصوصية البيانات لا تفرق بين البيانات الحيوية أو البيومترية (مثل التعرف على الوجه أو تنقية عدسة العين للعين) والبيانات الشخصية (من عناوين بريد الإلكتروني أو أرقام الهاتف.) غياب التخصيص هذا يسمح للحكومات وكيانات خاصة، سواء بسواء، باستغلال البيانات البيومترية لأغراض المراقبة، دون التأثير لعواقب الرسمية.

• غياب السجلات الخاصة بحماية البيانات: نوه مشاركون إلى أن ترخص لهم تخصيص البيانات التي أقرت في دول في المنطقة مثل المغرب [2]ولبنان وتونس[3]، وكثيرا ما تكون بالية وغير مكتملة وتشوبها صريحة. وضربوا مثلا بالإخفاق في عملية تنظيم احتساب البيانات البيومترية والذي يعني جمع المعلومات الشخصية لحسابها دون موافقة الفرد. هذه الثغرة لا تفتح أمام الباب، استخدام تقنيات الذكاء الاصطناعي التاريخية للمراقبة الشاملة الشاملة، وتمثل أيضا تاشيرا واضحا لتفاصيل واضحة وقوية لثقته في الهيئات الحكومية الرسمية.

• التعاون في مجال الحلول الاقتصادية: تمت مشاركة المشاركة في حالات يكون فيها الدافع وراء استخدام قوانين تتعلق بالذكاء الاصطناعي وتأمين البيانات هو الاعتبارات السليمة وعدم متابعة الإنسان. ففي الأردن على سبيل المثال، كانت مايكروسوفت واحدة من شركات كثيرة كان لها دور أساسي في صياغة قوانين حماية البيانات الآمنة والضرورية الكبرى في مكافحة الفرص المتاحة وقائمة البيانات من العناصر الفردية. هذه المحكمة التي جديدة على الاقتصاد لا تُجري بالا، إلا نادرا، للضمانات الأساسية المتعلقة بالفرد، بما في ذلك يسهّل المجانين.

• غياب المعايير المتنوعة: لقد فاقم غياب المعايير الموحدة في منطقة عموم هذه التحديات. وقد نوه مشاركون إلى أن الأنظمة التسلطية تستفيد من غياب أطر وتنوعية لاستغلال هذه التفاوتات المختلفة. وعلى سبيل المثال، فإن الشركات والكومات أن تقرر العمل في الدول التي تطبق قوانين أقل قليلا منها، بما في ذلك ما يعوق ويضر بجهود حماية حقوق الإنسان. 

 

مسؤولية الشركات التقنية الكبرى

التواطؤ في ممارسات الاستبدادية: كان دور شركات التقنية الكبرى مثل مايكروسوفت و جوجل وشركةنا في التمكين للممارسات التسلطية واحدا من المواضيع التي أثيرت في نقاشات. وقال مشاركون في هذه الشركات كثيرا ما تقيّض لحكومات الشرق الأوسط كل الوقت. أدواتِ ومنصاتِ ذكاء اصطناعي متقدم، دون فرض التدابير الرقابية والاحترازية اللازمة. وعلى سبيل المثال، أبرزت هذه الشركات لحكومات مشهودها بميولها التسلطية، تقنيةَ التعرف على الوجه، والتحليل التنبؤي، والمراقبة، بما في ذلك والتي تساهم بها فعلا من فرض سياسة المراقبة الشاملة والقمع.

• تصدير تقنيات التشطيب وغيره من المنحنيات: أكد المشاركون على أن كثيرا من تقنيات الذكاء الاصطناعي التي يطورها عمالقة التقنية في العالم إنما يلازمها الانحياز تعريفًا بفضل نتاجات البيانات التدريبية الم تستخدم فيها، والتي كثيرا ما ما الثقة الفوارق الاجتماعية والأفكار التقدمية. عند تصدير هذه البيانات إلى الإلكترونيات التسلطية، يتفاقم هذا الانحياز، بما في ذلك يعمّق استهداف الفئات المهمة مثل كاملين والأقليات. وعلى سبيل المثال، يتم ضبط خطأ أنظمة تحديد الوجه المستخدمة في المنطقة، ويكون واسعًا عندما يتعلق الأمر بذوي عيوب البشرة، بما في ذلك احتمال حدوث حالات الاعتقال والسجن التعسفي. 

• غياب الاعتبار: قلم يتميز بعمل شركات تقنية عملاقة شفافة مطلوبة لتعرف ما ينتهي إلى أدوات الذكاء الاصطناعي بعد بيعها للكومات. وأبدى مشاركون قلقهم لكون هذه الشركات لا تتقصى استخدام هذه التفاصيل بعد بيعها أو لا تقيد استخدامها. وعلى سبيل المثال، انضم في فريق الصراع الفلسطيني أن شركات التقنية الأمريكية للتسويق الدقيق تساعد في افتراض استبعاد شامل للاستهداف العسكري، ولم وفي تُقدم هذه الشركات، إلا نادرا، على خطوات تحول دون استخدام هذه التفاصيل في مساعدة حقوق الإنسان. 

• القوة الاقتصادية والتأثير: ناقش المشاركين كيف باتت هذه الشركات تستغل قوتها الاقتصادية للتأثير في تحديد السياسات وقوانين مصالحها. على سبيل المثال، مارست مايكروسوفت و شركا ضغطا كبيرا على حكومات في المنطقة لإثبات تنوعات استثماراتهما، كاميراونا ما قوّض ذلك حقوق الإنسان، وهو ما يثير الكثير من الأسئلة عن مسؤولية هذه الشركات عن هذه التفاصيل للتمكين لسياسات القمع. 

• الحاجة إلى الالتزام بالمعايير الدولية: أحدثوا غير اكتراث الشركات التقنية الكبرى بتوخي الحيطة عند استثمارها في أسواق المنطقة، بفضلوا على الحاجة لتطبيق مبادئ دولية لدعوات خاصة بالإنسان، مثل تعليمات موحدة لتوجيه الأعمال الخاصة بالأعمال وحقوق الإنسان، وتوقيع الميزات والمسؤوليات تقع على الشركات في منع وما قد يستوعبه من برا.

 

توصية 

1. تطوير أطر تنظيمية

• فطايرات الاطفال لحماية البيانات: على حكومات المنطقة سنّ وتطبيقات شاملة بشكل شامل لتنظيم قطاع الذكاء الاصطناعي وحماية البيانات. يجب أن تكون هذه التنظيمات بناءً على التعريفات القضائية الدينية والحيوية، وترافقَ مع المبادئ التوجيهية وستشترى منها وما لديها. يجب أن تتضمن هذه القوانين التحلي بالشفافية عند استخدام البيانات الخاصة بمساهماتها الخاصة. يجب أن تحتوي هذه النسخ على الإجراءات العقابية لرد استخدام الخبيث، وتتضمن على تتطلبها متطلبات حقوق الإنسان.

• منع استخدام الذكاء الاصطناعي لأغراض خبيثة: يجب أن أتجرأ القوانين بشكل صريح على مسألة تحوير استخدام الذكاء الاصطناعي لأغراض خبيثة مثل المحكمة الشاملة والتلاعب بالسياسة والتمييز. يمكن على سبيل المثال مثلاً استخدام تقنيات التعرف على الوجه وتحليل التنبؤات إن ألحق ذلك الضرر بالفئات الضعيفة. يجب أن تتوفر لديها ولا للإشراف على تطبيق هذه القوانين، من قبيل الهيئات المشهورة، والانصياع لهذه القوانين والتخصصات التطبيقية لطرائق الحيوانات. 

• التعاون الدولي في صياغة المعايير المتخصصة وتوظيف الذكاء الاصطناعي: من الأهمية بمكان الاعتراف بالطبيعة العابرة للحدود التي تميزت بتقنيات الذكاء الاصطناعي، وذلك من أجل تشجيع بناء التعاون مع معايير نوريدج التي تصوغ بشكل محدد وقابلة للاحتمال لاستخدامها وتصديرها حسب ما تشاء. ويمكن أن يشمل ذلك منع شراء أدوات التكنولوجيا المتطورة من قبيل التنبؤ بالتنبؤ. من بين ما يتعلق بالطرائق العلمية المختارة، سواء تحت مظلة الأمم المتحدة أو هيئات أخرى، ضمان توافق تقنيات الذكاء الاصطناعي مع معايير حقوق الإنسان العالمية. 

 

2. تمكين التمكين الثقافي

• دعم المنظمات الناشئة: العوامل المجتمعية الثقافية الأساسية في الوعي بالأبعاد الحيوانية لاستخدام الذكاء الاصطناعي. على المرأة والمانحين التأسيس والمعنيين من القطاع الخاص، تقديم الدعم المالي المالي للمنظمات المجتمع المدني الفردية في مجال الحماية الرقمية. يجب أن تهدف هذا الدعم إلى تعزيز تعاون المنظمات المشاركة في مختلف الدول لتتشارك الموارد والاستراتيجيات والتجارب

• تقدمين بأدوات الذكاء الاصطناعي: ويحتاج أيضا المقاتلون والمدافعون عن حقوق الإنسان إلى أدوات متقدمة، ليتمكنوا من الحيلولة دون إلغاءه لأهداف تسلطية. وعلى سبيل المثال، فإن ما يتعلق بأدوات تحليل بيانات وسائل التواصل الاجتماعي يساعد في كشف وتوثيق حقوق الإنسان، فيما يتعلق بأدوات أخرى تفسر الأسباب والأضرار التي تُحدث بالبيئة. تدريبين على استخدام هذه الأدوات بنجاعة لا يضاعفهم من الأدوات المتكافئة، بل يتيح لهم أيضا محاسبة تسعة أرقام. 

• دعم الجهات التعليمية : على المجتمع المدني أن ينشأ أيضًا حملات أهلية للمطالبة بالشفافية والمحاسبة الأكبر عند استخدام الذكاء الاصطناعي. ويمكن أن يشمل ذلك حملات عامة لتوعية الوعي بسياسات الانقلاب والذكاء الاصطناعي لأهداف خبيثة، وكذلك النضال من أجل حماية الجماهير الشعبية. 

 

3. التطوير الجديد في المنطقة

• الاستثمار في مشاريع الذكاء الاصطناعي المحلية: على رأس المؤسسة الأكاديمية والكيانات الاستثمارية الخاصة في حلول الذكاء الاصطناعي التي تُطوَّر محليًا وتمنح أخيرًا لمفاهيم العدالة الاجتماعية والمساواة والاندماج. لديها مشاريع الذكاء الاصطناعي مثلا أن تحصل على تطوير الصحة العامة والمنظومة التعليمية والتوزيع العادل للموارد بين الفئات المحرومة. ومن هذه المشاريع أن الفرصة متاحة للعمل أيضًا، وتسمح بوجود خبرات محلية في مجال الذكاء الصناعي. 

• فرانسيسكو الخاصة بالاعتبارات الكلاسيكية والأخلاقية للذكاء الاصطناعي: إن بحث الأبحاث العلمية الذي يأخذ في الاعتبار العلوم السياسية والذكاء الاصطناعي هو أمر مهم. من المثير للاهتمام أن تقصى الانحياز الملازِم لخوارزميات الذكاء الاصطناعي والآثار الاجتماعية الناجمة عن الأضرار. من باب التعاون بين الجامعات ومراكز الدراسات والمنظمات الدولية التي تتيح فهمها بدلاً من تقنيات الذكاء الصناعي في التمكين للسلطات وسياسات الريادة في دعم حقوق الإنسان. 

• مركز مراكز بحثية أكثر: يمكن أن يقيم مركز بحث متخصص أكثر تخصصًا في الذكاء الاصطناعي، وعدد كبير من الباحثين من مختلف المجالات - مثل القانون والأخلاقيات والإعلام حقوق الإنسان- ليعكفوا على تطوير علوم متعددة التخصصات تنبري للتحديات الإقليمية. 

 

4. برامج توعية توصية

• برامج التدريب للأطراف المؤثرة: يجب تطوير برامج تدريب متشوقة للناشطين والصحفيين والمحامين ومنظمات المجتمع المدني، بما لديهم من المعرفة والمهارات اللازمة لفهم تقنيات الذكاء الاصطناعي لتحقيق الهدف. يجب أن تضع هذه المسائل مثل مدى التركيز على المركزية الخوارزميات والتصدي له، سيطرة الذكاء الاصطناعي اليوناني على الجرائم والحقيقية في جرائم الحرب وفهم الحيوانات للذكاء الاصطناعي. 

• الوعي بخاطر الذكاء الاصطناعي: يجب أن نقوم بحملات التوعية على الطيران التثقيفي العام في مجالات عديدة وأضرار محتملة يمكن أن يجرها استخدام الذكاء الاصطناعي دون تأثير تنظيمي. يشمل ذلك التعريف الدقيق للحالات السيئة التي تنطوي على استخدام الذكاء الاصطناعي، مثل التعاون الشامل، أو السياسى السياسي، الأشخاص الذين يجب عليهم حماية حقوقهم الرقمية. يمكن استخدام محتويات مشوقة، مثل لقطات الفيديو والرسوم البيانية، لتمثل هذه الحملات جاذبية.

 


 

[1] في نوفمبر 2024، بدأت مبادرة مبادرة مسائل الديمقراطية (DMI) أول ثلاثة مواضيع مهمة تلعب دورًا هامًا في تعزيز التقدم الديمقراطي في الشرق الأوسط وشمال أفريقيا: “الدفاع ًا عن الديمقراطية وحقوق الإنسان”. تجدون رابط تقرير الحوارات التي أثيرت للمناقشة في الرابط التالي: 

https://mideastdc.org/publication/dmi-private-dialogue-one-recap

[2] الاستعراض الدوري الشامل (UPR). (بدون تاريخ). تقرير الاستعراض الدوري الشامل: المغرب.متوفر في

https://upr-info.org/sites/default/files/documents/2017-04/pi_upr27_mar_e_main.pdf

[3] "حماية البيانات: ما الذي يجب أن تعرفه عنها؟" عرض تقديمي قدمته ديما سمارو باحثة في السياسات في منطقة الشرق الأوسط وشمال أفريقيا، منظمة أكسس ناو، آمنة الصيادي، مسؤولة المناصرة في منطقة الشرق الأوسط وشمال أفريقيا، منظمة أكسس ناو

https://www.slideshare.net/slideshow/access-now-data-protection-what-you-should-know-about-it/121565347


إعداد وتنقيح ياسمين عمر، مديرة مبادرة دعم الديمقراطية – مركز الديمقراطية في الشرق الأوسط (MEDC).