يشهد قطاع إدارة الهجرة تزايداً في استخدام التقانات الجديدة بدءاً بتطبيقات البيانات الكبيرة حول التحركات السكانية في منطقة البحر الأبيض المتوسط وانتهاءً بأتمتة عملية اتخاذ القرار للبت في طلبات الهجرة واللجوء واستخدام الذكاء الاصطناعي في كشف الكذب على الحدود الأوروبية. وتمثل الطريقة التي تُستَخدَم بها التقانة عدسة مفيدة يمكن من خلالها إظهار ممارسات الدول وتثير التساؤلات حول الديموقراطية والسلطة والمساءلة. ويُسوِّغ استِخدامَ التقانات الجديدة وجميع البينات الحاجة لتعقب المهاجرين والكشف عنهم تحت ذريعة حماية الأمن الوطني بل ربما تحت شعار العمل الإنساني والإنمائي. إلاَّ أنَّ التقانة لا تضمن بالضرورة تطبيق الديمقراطية، ولا بد من أن تأخذ في الاعتبار آثارها المحتملة في حقوق الإنسان في سياقات العمل الإنساني والهجرة القسرية.
العمل الإنساني المُوَجَّه بالبيانات
الذكاء الاصطناعي وتعلم الآلة ونظم أتمتة عملية اتخاذ القرارات والتحليل التنبؤي ما هي إلا مصطلحات يتداخل بعضها ببعض إذ تشير إلى فئة من التقانات التي توسع من قدرة البشر على اتخاذ القرارات أو قد تحل محل الإنسان في اتخاذها، إذ تعمل هذه المنظومات على معالجة المعلومات بشكل البيانات المدخلة باستخدام خوارزمية تُولِّد المخرجات. ويمكن تصور الخوارزمية بشكلها البسيط بأنَّها مجموعة من التعليمات كما لو كانت وصفة يمكن تعلمها. وتتنوع البيانات التي تستخدمها الخوارزمية في التعلم الآلي ويمكن أن تمثل قانوناً عرفياً من الحالات السابقة أو يمكن أن تُصنَّف مُسبَقاً بناءً على المعايير التي يضعها المصمم. ويمكن استخدام تلك التقانات بطرق متنوعة في عدد متنوع من جوانب ‘إدارة الهجرة’.
فتقانات اتخاذ القرارات المؤتمتة تتطلب كميات هائلة من البيانات لتعليم الآلة ومثال ذلك أنَّ مختلف مشروعات الأمم المتحدة تعتمد منذ مدة على مجموعات كبيرة جداً من البيانات للتنبؤ بالتحركات السكانية، وهكذا تقدم خدمة كبيرة في تعزيز كفاءة تقديم المساعدات الإنسانية. لكنَّ جميع البيانات لا تخلو من الاعتبارات السياسية خاصة عندما تعمد الجهات الفاعلة القوية مثل الدول والمنظمات الدولية إلى جميع المعلومات حل الأشخاص المستضعفين دون استخدام منهجيات منظمة للرقابة والمساءلة. فالحماس المتزايد في جمع البيانات حول السكان المهاجرين فيما يطلق عليه تسمية الاستعمار البياني قد يؤدي إلى خروقات في الخصوصية وقد يثير مخاوف ترتبط بحقوق الإنسان. وكذلك جمع البيانات المتعلقة بالمجموعات المهمَّشة فهي تتَّبع في صلبها المنهج التاريخي. وقد اعتمد النظام النازي من قبل على كميات كبيرة من البيانات الخاصة بالسكان اليهود جمعها النظام بمساعدة شركة آي بي إم (IBM)، وبالمثل في إبَّان حملة التطهير العرقي في رواندا، لوحق أفراد قبيلة التوتسي بطريقة ممنهجة من خلال تعقب السجلات العرقية. أما الولايات المتحدة الأمريكية، فقد جمعت بعد هجمات الحادي عشر من سبتمبر/أيلول كميات هائلة من بيانات الأفراد المشتبه بهم من خلال منظومة تسجيل القادمين والمغادرين الوطنية التي تتبع وزارة أمن الوطن. وفي المشهد العالمي الذي يتَّسم بتزايد في معاداة المهاجرين، أسيء تفسير بيانات الهجرة وأسيء تمثيلها أيضاً لتحقيق أهداف سياسية، منها، على سبيل المثال، التأثير في توزيع أموال المساعدات ومصادرها وللمساعدة في تمتين السياسات المناهضة للهجرة.
الموافقة المدروسة والقطاع الخاص
يثير استخدام التقانات الجديدة مسائل ترتبط بالموافقة المدروسة خاصةً على ضوء تزايد الاعتماد على البيانات البيومترية. ففي الأردن، على سبيل المثال، تطبق السلطات عملية المسح الرقمي لقزحية عيني اللاجئ (بصمة العين) ليتمكن من الحصول من خلالها على الحصص الغذائية الأسبوعية. لكنَّ السؤال القائم هو ما إذا كان من حق اللاجئين طلب إزالة بياناتهم الشخصية المتحصل عليها بتلك الطريقة. فقد وجدت شبكة آيرين (التي أصبح اسمها الآن الإنساني الجديد) في مخيم الأزرق للاجئين أنَّ معظم اللاجئين الذين قابلتهم أبدوا عدم ارتياحهم من هذه التجارب التقنية لكنَّهم شعروا أنَّهم غير قادرين على رفض ذلك ما دام أمر طعامهم معتمداً عليها.[1] ولا يمكن القول إنَّ اللاجئ أعطى موافقته بمحض إرادته إذا ما أعطاها تحت الإكراه مهما تخفَّت الظروف الإكراهية تحت قناع الكفاءة في تقديم الخدمات وتحسينها.
ومن أهم المخاوف على وجه الخصوص تنامي دور القطاع الخاص في عملية جميع تلك البيانات واستخدامها وتخزينها. فقد وقَّع برنامج الأغذية العالمي، على سبيل المثال، مؤخراً عقداً بقيمة 45 مليون دولار أمريكي مع شركة بالانتير تيكنولوجيز، وهي شركة خاصة واجهت انتقادات واسعة النطاق على خلفية تقديمها للتقانة التي تدعم برامج الاحتجاز والترحيل التي توظفها دائرتي الهجرة والإنفاذ الجمركي في الولايات المتحدة الأمريكية. فماذا سيحدث لبيانات تخص 92 مليون مستفيد من المساعدات إذا ما أودعت لدى الشركة المذكورة؟ ولم يتضح بعد ما إذا كان بمقدور أصحاب البيانات رفض التشارك ببياناتهم، وليس من الواضح بعد ما إذا كان هناك نموذج سيتاح للجمهور العام بشأن تفعيل المساءلة والشفافية في التشارك بالبيانات.
أتمتة الهجرة
في تقرير شاركت بإعداده في عام 2018، استكشفت الآثار المترتبة لأتمتة عملية اتخاذ قرارات الهجرة في كندا،[2] وهي من الممارسات التي بدأت بتجربتها دول أخرى تستقبل أعداداً كبيرة من المهاجرين. ويستطلع التقرير العمليات التي تتمخض عن مختبر لأداء تجارب مرتفعة الخطورة ضمن منظومة معتمة تخضع للتقدير الشخصي. وبلغ تطبيق هذه التجارب أوجها في الولايات المتحدة الأمريكية. فعلى سبيل المثال، إثر صدور أوامر إدارة ترامب التنفيذية بشأن الهجرة، استخدمت سلطة إنفاذ الجمارك والهجرة خوارزمية على الحدود الأمريكية المكسيكية فسوَّغت بذلك احتجاز المهاجرين في كل حالة.[3]
كما وُثِّقَت حالات كثيرة من التحيز في اتخاذ القرارات المؤتمة خاصة فيما يتعلق بالعرق والجندر. فعندما تعتمد الخوارزميات على بيانات متحيزة، فإنَّها لا تُنتِج سوى نتائج متحيزة يستمر أثرها على المدى البعيد إذا ضُمِّنَت في التقانات الناشئة التي تخضع حالياً للتجربة في مجال الهجرة. ومثال ذلك ما يحدث في مطارات المجر ولاتفيا واليونان حيث رادت شركة اسمها آيبوردر كونترول (iBorderCtrl) مشروعاً تجريبياً جديداً أدخَل في نقاط التفتيش الحدودية جهازاً لكشف الكذب يعمل على الذكاء الاصطناعي.[4] ويعمل ذلك الجهاز على رصد علامات الكذب على وجه المسافر الذي إذا أصبح في دائرة ‘الشبهة’ في الجهاز فسوف يعطي الجهاز إشارة بتحويل ذلك الشخص إلى مرحلة الفحص المتقدم على يد موظف بشري. ومع أنَّ ذلك الإجراء قد لا يبدو بأنَّه ينطوي على أثر ضار، فهل بمقدور منظومة اتخاذ القرارات الانتباه إلى الصدمة النفسية وآثارها في ذاكرة طالب اللجوء، أو هل تقدر على الانتباه إلى الاختلافات الثقافية في التواصل؟ إضافة إلى ذلك، ما زالت تقانات التعرف على الوجه تواجه مصاعب في تحليل النساء والأشخاص ذوي البشرة المائلة للسمرة. كما أنَّ هذه الاستخدامات التجريبية للذكاء الاصطناعي تثير مجدداً مخاوفَ حول الخصوصية والتشارك بالمعلومات دون موافقة أصحابها.
سؤال آخر نطرحه هنا: ما الذي يحدث إذا وقعت الخوارزمية بالخطأ؟ ففي مايو/أيار 2018، على سبيل المثال، تسببت خوارزمية في وقوع منظومة الهجرة في خطأ ترحيل سبعة آلاف لاجئ من المملكة المتحدة بعد أن حكمت الخوارزمية عليهم بأنَّهم كانوا يغشون في اختبار الاكتساب اللغوي على ضوء تحليل الملفات الصوتية لهم.[5] وهب أنَّك أردت أن تعترض على قرار الخوارزمية كما حدث في المثال السابق في محكمة القانون، فعلى من ستقع المسؤولية المدنية: هل تقع على مصمم الخوارزمية أم مُرمِّزها أم ضابط الهجرة أم الخوارزمية نفسها؟ ثم إنَّ اتخاذ القرار للبت في أمر الهجرة أو اللجوء يشغل بالفعل مساحة قانونياً صعبة، إذ غالباً ما يكون عظيم الأثر في حقوق الأفراد ومصالحهم. ومع ذلك، نجد أنَّ المسؤول عن اتخاذ مثل تلك القرارات يحظى بقدر كبير من الاعتبار عدا عن أنَّ الضعف يعتري الضمانات الإجرائية. وليس من الواضح كيفية تأثير كامل المنظومة الجديدة لاتخاذ القرارات في آليات إعادة الاعتبار. ومن ناحية المحاكم، هناك أيضاً غموض خطير بشأن الطريقة التي سوف تفسر بها المحكمة القرارات التي تتخذها الخوارزمية والمبادئ القانونية الإدارية واجبة التطبيق مثل العدالة الإجرائية والحق في الحصول على قرار نزيه غير متحيز.
آليات المسائلة والرقابة
يغيب عن المشهد العالمي أي إطار تنظيمي يراقب استخدام التقانات الجديدة في إدارة الهجرة. إلاَّ أنَّ كثيراً من التطورات التِّقانيَّة ترد نصوص بشأنها في قوانين الملكية الفكرية وحقوق الملكية التي تمنع الاطلاع العام على مجموعات البيانات وتعيق تحقيق فهم كامل للتقانة. ومع أنَّ هناك حوارات تدور حول أخلاقيات استخدام البيانات والتقانة، ورغم أنَّ هناك إستراتيجيات عالمية وآليات إقليمية ما زالت قيد الاستكشاف، لا بد لنا من وضع تركيز أدق على آليات الرقابة. أمَّا القطاع الخاص، فتقع عليه المسؤولية بالفعل في ضمان عدم انتهاك التقانات التي يطورها لحقوق الإنسان الدولية. وكذلك تقع على عاتق أصحاب التقانات والمطورين والمهندسين المسؤولية عن بناء هذه التقانة التزامات أخلاقية خاصة تلزمهم بالتأكد من أنَّ ما يعملوه لن يُسهِّل انتهاكات حقوق الإنسان. إلاَّ أنَّ نمو الرقابة الحكومية وإنفاذ قوانين الهجرة وبرامج أمن الحدود قد يُمثِّل حافزاً ونوعاً من المكافأة التي تشجع القطاع الصناعي في تطوير تقانات تنتهك حقوق الإنسان.
ولذلك، لا بد للدول من أن تعلن التزامها بوضع آليات للرقابة وتطبيقها. وبهذا الصدد، يقدم تقريرنا حول اتخاذ القرارات المؤتمتة في كندا جملة من التوصيات ويقدمها للدول وغيرها من الجهات الفاعلة في إدارة الهجرة ويمكن تطبيق تلك التوصيات في أي مكان في العالم وهي كما يلي:
- الالتزام بالشفافية والإفصاح للجمهور العام عن التقانات التي في قيد التطوير والتقانات المستخدمة
- تبني أوامر توجيهية وقوانين ملزمة تمتثل لالتزامات حقوق الإنسان المحمية دولياً
- تأسيس هيئة مستقلة تراقب جميع استخدامات التقانات المؤتمتة في إدارة الهجرة ومراجعتها
- تعزيز الحوارات الدائرة بين صانعي السياسات والباحثين الأكاديميين وأصحاب التقانات والمجتمع المدني حول مخاطر استخدام التقانات الجديدة ووعودها
ولا بد لهذه الحوارات أيضاً من أن تعالج مسألة عدم إشراك المجتمعات المتأثرة. فبدلاً من تطوير تقانات إضافية ‘من أجل‘ اللاجئين والمهاجرين أو ’حولهم‘ وبدلاً من جمع الكميات الهائلة من البيانات، ينبغي وضع الأشخاص الذين واجهوا تجارب التَّهجير في قلب النقاشات المرتبطة بمتى وكيف ينبغي دمج التقانات الناشئة في مخيمات اللاجئين وفي جلسات السماع الخاصة بأمن الحدود أو اللاجئين، إذا كان لا بد من تطوير تلك التقانات أصلاً.
بِترا مُولنَار petra.molnar@utoronto.ca
محامية في برنامج القانون الدولي لحقوق الإنسان، كلية الحقوق بجامعة تورونتو
أسَاسُ هذه المقالة بحثٌ تجريه الكاتبة اليومَ في جامعة كمبريدج.
[1] Staton B (2016) ‘Eye spy: biometric aid system trials in Jordan’
(العين الجاسوسة: تجارب نظام المساعدات البيومتري في الأردن)
www.irinnews.org/analysis/2016/05/18/eye-spy-biometric-aid-system-trials-jordan
[2] Molnar P and Gill L (2018) Bots at the Gate: A Human Rights Analysis of Automated Decision Making in Canada’s Immigration and Refugee System
(الرُوبوتات عند البوَّابة: تحليلٌ قائم على حقوق الإنسان في اتِّخاذِ القرارات المؤتمتة في نظام الهجرة واللاجئين بكندا) https://ihrp.law.utoronto.ca/sites/default/files/media/IHRP-Automated-Systems-Report-Web.pdf
[3] Oberhaus D (2018) ‘ICE Modified Its “Risk Assessment” Software So It Automatically Recommends Detention’
(عدَّلت سلطة إنفاذ الجمارك والهجرة برمجيَّتها في “تقييم احتمال الخطر” لتوصي بالاحتجاز تلقائياً)
[4] Picheta R (2018) ‘Passengers to face AI lie detector tests at EU airports’
(سيواجه المسافر في مطارات الاتحاد الأوروبي اختبارات من جهاز لكشف الكذب يُشغِّله الذكاء الاصطناعي) https://edition.cnn.com/travel/article/ai-lie-detector-eu-airports-scli-intl/index.html
[5] Baynes C ‘Government “deported 7,000 foreign students after falsely accusing them of cheating in English language tests”’, The Independent, 2 May 2018
(رحَّلت الحكومة سبعة آلاف لاجئٍ بعد اتهامهم من غير وجه حقٍّ بالغشِّ في اختبار اللغة الإنجليزية) https://www.independent.co.uk/news/uk/politics/home-office-mistakenly-deported-thousands-foreign-students-cheating-language-tests-theresa- may-a8331906.html