تعد أنظمة التعرف إلى الوجوه غير موثوقة إلى حد بعيد، خصوصًا مع الأشخاص غير البيض، ما يعزز الشكوك بشأن أهمية استخدام هذه التكنولوجيا المعتمدة على الذكاء الصناعي، وفق تقرير حكومي أميركي نُشر الخميس.
وخلصت هذه الدراسة، التي حلل معدوها عشرات الخوارزميات، إلى أن نظام التعرف إلى الوجوه يقدم تعريفًا خاطئًا للأشخاص الآسيويين أو السود أكثر بـ100 مرة من أولئك البيض، حسب «فرانس برس».
كما رصد الباحثون في معهد «ناشونال إنستيتيوت أوف ستاندردز آند تكنولوجي» التابع للحكومة الأميركية، خوارزميتين كانتا تعرِّفان خطأ عن جنس النساء السوداوات في 35 % من الحالات.
وتُستخدم تقنية التعرُّف إلى الوجوه على نطاق واسع من جانب السلطات وقوات الأمن والمطارات والمصارف والمتاجر والمدارس. كما أنها تُستخدَم في فتح الهواتف الذكية.
ويحاول ناشطون حقوقيون وباحثون كثر الحد من الاندفاعة الكبيرة في استخدام هذه التقنية، معتبرين أن الخوارزميات تقترف الكثير من الأخطاء وأن بعض الأبرياء قد يجدون أنفسهم في السجن، فضلًا عن خطر قرصنة قواعد البيانات واستخدامها من جانب مجرمين.
وسجلت الخوارزميات المطورة في الولايات المتحدة معدلات خطأ أعلى مع الآسيويين والأميركيين من السود أو المنتمين إلى قبائل السكان الأصليين، بحسب الدراسة التي أشارت في المقابل إلى أن الخوارزميات المطورة في بلدان آسيوية بدت قادرة على التعرف على وجوه الآسيويين والبيض بالدقة عينها.
طالع أيضا: تقنية التعرف إلى الوجوه تثير الجدل في بريطانيا
وقال مدير البحث باتريك غروثر إن «هذا الأمر مشجع لأنه يظهر أن استخدام قاعدة بيانات أكثر تنوعًا يتيح تحقيق نتائج أفضل».
إلا أن «الاتحاد الأميركي للحريات المدنية» (إيه سي إل يو) وهو منظمة حقوقية غير حكومية نافذة، اعتبر أن هذه الدراسة تثبت قبل أي شيء أن هذه التكنولوجيا ليست متطورة بالمقدار الكافي ويتعين تاليًا عدم استخدامها.
وقال المحلل في هذه المنظمة جاي ستانلي: «حتى العلماء الحكوميون يؤكدون أن تكنولوجيا المراقبة هذه دونها عيوب ومنحازة».
وأضاف: «التعرف الخاطئ قد يؤدي إلى تفويت موعد طائرة، أو إلى استجوابات بلا نهاية، أو وضع على قائمة الأشخاص الواجب مراقبتهم، إضافة إلى توترات مع عناصر الشرطة وتوقيفات بلا أساس أو ربما أسوأ».
تعليقات