التحيّز الخوارزمي

التحيّز الخوارزمي

قام العالم محمد بن موسى الخوارزمي بابتكار الخوارزمية في القرن التاسع الميلادي وسمّيت تيمنًا به. هي مجموعة خطوات رياضية ومنطقية متسلسلة لازمة لحل مشكلة معينة. يتم استخدامها بشكل أساسي في أنظمة الحاسوب لأنه بواسطتها يمكننا الحصول على النتائج من بيانات معطاة للبرمجية في صورة من صور المنطق. لا يخلو أي نظام من الخطأ ومن أشكاله هنا؛ التحيز الخوارزمي.

التحيز الخوارزمي هو مصطلح يصف هذه الأخطاء المتكررة في أنظمة الحاسوب والتي تعطي نتائج غير عادلة مما يؤدي غالبًا إلى تفضيل مجموعة عشوائية من المستخدمين على مجموعة أخرى. قد يحدث هذا التحيز بسبب عدة من العوامل منها كيف أو ما الطريقة التي تم برمجة الخوارزمية عليها، البيانات التي تعمل على تدريب الخوارزمية وكيفية جمع وتحليل هذه البيانات أو حتى تصميم الخوارزمية ذاتها. من الممكن العثور على التحيز الخوارزمي في الكثير من المنصات ومحركات البحث ومواقع التواصل الاجتماعي وللأسف هذا التحيز يؤدي الى تأثيرات تشمل خرق غير مباشر للخصوصية، التأكيد على أو تعزيز التحيزات الاجتماعية التي قد تكون تتعلق بالعرق أو نوع الجنس أو الإثنية وغيرها من المعايير. هنا دعت الحاجة لوجود قوانين تعمل على وقف هذا التحيز الخوارزمي الذي يكون عامل خفي أو كامن في تجدد و نشأة نزعات عنصرية وتمييز بين الناس. من أمثلة هذه القوانين تشريع “النظام الأوروبي العام لحماية البيانات” وهو نظام يختص بحماية البيانات وخصوصيتها لكل فرد داخل الاتحاد الأوروبي . تم أيضا اقتراح قانون من قبل المشرّعين في الولايات المتحدة باسم قانون محاسبة الخوارزميات الذي يقوم بالتعاون مع شركات تقنية على تقويم أو إزالة هذه التحيزات.

لمّا كانت الحاجة لتقويم هذه التحيزات ضرورية اصبح الطلب على المسمى الوظيفي “مدقق التحيّز الخوارزمي” كبير. من هو مدقق التحيز الخوارزمي؟ وما عمله؟ ما اسم السلك التخصصي الذي يجب دراسته للعمل بهكذا وظيفة؟ وأين يمكن تدريسه؟

يقوم مدقق التحيز الخوارزمي بتقويم الأخطاء التي تحدث في الخوارزميات التي تسبب تمييز فئة عن أخرى عند إعطاء النتائج. من الممكن أن تتأثر الخوارزمية بتوجهات الأشخاص الذين قاموا بتصميمها كما ذكرنا آنفا. بالنسبة للمدقق هنا البيانات غير موضوعية ولكنها ليست ما يقلق حياله بقدر ما يقلق بشأن انها تنعكس من تمييز أو تحيّز مجتمعي وثقافي موجود بالاصل. تعمل هذه الأنظمة بالذكاء الاصطناعي في أغلب الأحيان مما يجعل التعلم الذاتي جزء لا يتجزأ من طرق معالجة البيانات والمخرجات التي يتم إعطائها لذا يقوم المدقق باستخدام آداة (برمجية) بقياس التأثير المتفاوت ويصحح التكافؤ التنبئي لتحقيق عدل في النتائج.

الخطوة الاولى هي عملية فحص البيانات والخوارزمية أما الثانية تكون بتحليل طريقة عمل الخوارزمية ومعالجتها للبيانات أما الثالثة والاخيرة تكون من خلال دراسة المخرجات واحتمالاتها. لذا، عندما يتم تصميم الخوارزميات بشكل مسؤول نتجنب العواقب المؤسفة للتمييز المنهجي والتطبيقات الغير اخلاقية التي قد تحدث، والمدقق اصبح جزء لا يتجزأ من أي شركة حلول برمجية أو تطوير برمجي. تشمل المؤهلات التي تحتاجها لتصبح مطور أو مدقق خوارزميات, درجة البكالوريوس في علوم الكمبيوتر أو البرمجة أو الرياضيات أو أي مجال ذو صلة ومن المهم جدا أن تكون على قدر عالي من الإتقان ل لغتي بايثون و سي ++ , ويتراوح معدل أجور المتخصصين في تلك المجالات في الأردن تحديدا بين ال 750 دينار إلى 2580 دينار وذلك وفق موقع (سالاري إكسبلورر).

 ومن الأمثلة الحقيقة على تحيّزات خوارزمية حدثت فعلا ما حدث مع خوارزمية (كومباس)؛ وهي خوارزمية يتم استخدامها على نطاق واسع في الولايات المتحدة الأمريكية والتي تعمل على توجيه الأحكام من خلال توقع إعادة حدوث جريمة جنائية، وربما من أكثر الحالات السيئة في التحيّز ضد الذكاء الإصطناعي ما حدث في شهر مايو من العام 2016 حيث ذكرت منظمة الأنباء الأمريكية (برو بابليكا) أن هذه الخوارزمية متحيّزة عنصريًا حيث كان النظام يتنبأ بأن المجرمين ذوي البشرة السمراء يشكلون خطر أكبر في إعادة حدوث الجرائم أكثر مما يفعلون , والعكس بالنسبة لذوي البشرة البيضاء. أيضا تستخدم بالفعل خوارزمية (بريدبول) وهي خوارزمية مصممة للتنبؤ بموعد ومكان حدوث الجرائم. 

في عام 2016 أيضا، أظهر تحليل للبيانات أن البرنامج يمكن أن يقود الشرطة  إلى استهداف أحياء معينة بشكل غير عادل. وعندما قامو بعمل محاكاة للخوارزمية على جرائم المخدرات، كانت النتائج تشير الى إرسال عناصر من الشرطة بتكرار الى أحياء بها نسبة عالية من الأشخاص من الأقليات العرقية وبغض النظر عن معدل الجريمة الحقيقي في تلك المناطق. أما في العام 2015 أظهرت دراسات أنه في بحث صور جوجل عن كلمة “رئيس تنفيذي”، كانت في 11% فقط من الأشخاص الذين عرضتهم نساء على الرغم من أن 27 %من الرؤساء التنفيذيين في الولايات المتحدة الأمريكية هم من الإناث. بعد بضعة أشهر أخرى، وجدت دراسة منفصلة أن نظام الإعلانات عبر الإنترنت من جوجل أظهر وظائف عالية الدخل للرجال أكثر من النساء في كثير من الأحيان.

أمثلة كهذه والكثير غيرها يوضح مدى الأثر الذي تقوم به هذه التحيزات في تفضيل فئات معينة على أخرى مما يؤكد الحاجة لوجود مدققين يعملون على تقويم أخطاء كهذه، حيث أن تحيزات مثل التي تم ذكرها أعلاه قد تقيم وتقعد شعوب و بلدان. لطالما كانت العنصرية والتمييز جزء من الحياة الاجتماعية بطريقة ما – للأسف – ولكن هذا لا يعني أن نتركها تصبح شيء لا يمكن التخلص منه حيث من المحتمل أن تتأصل و تتجذر وهنا سيصبح من الصعب ما لم يكن من المستحيل أن نبني ثقافة تقبّل وتسامح في المجتمع  والحياة تتجه لتكون مميكنة. سوف يسيطر الذكاء الاصطناعي على أسلوب حياتنا لذا من المهم أن ننتبه للتمييز الذي يحدث الكترونيا ونعطيه الأهمية كما يحدث في الحياة الواقعية.

قالت آنجيلا دايفس : “في مجتمع عنصري لايكفي ان تكون غير عنصري . يجب ان تكون معادي للعنصرية”، ليس ما يهم من أي عائلة أنت او ما أصلك أو من أي بلد، حيث أن الجنس الوحيد الذي يجب أن تعترف به هو الجنس البشري ولا شيئ غير ذلك. إن اختلافاتنا ليست هي التي تفرق بيننا، بل إن عدم قدرتنا على التعرف على هذه الاختلافات وتقبلها واحترامها هي التي تفعل. العنصرية تمنعنا من الاهتمام بحياتنا من خلال أنها تجعلنا نضطر لتبرير وجودنا وإن قدرتنا على الوصول الى الوحدة في التنوع هي أسمى أشكال التقبل والتسامح والتي سيعود نفعها بالنهوض بالأمم و الوصول الى التطور والتقدم المنشودين. لذا برأيي هذه “الصنعة” لا غنى عنها في حياتنا المعاصرة نظرا لحاجتنا الضرورية لها والتي ستستمر مع تقادم الوقت وزيادة (البيانات الكبيرة) و انخراط انترنت الاشياء في حياتنا اليومية. فهي فعلا وظيفة تؤكد على ان الصنايع موجودة ونحن من نصنع بختنا الرائع.

يوسف النسور

 

المراجع

  • Nichole Turner Lee, Algorithmic bias detection and mitigation, may-22-2019
  • ويكيبيديا، خوارزمية، إبريل-29-2020
  • ZipRecruiter, how can I become an algorithm developer
  • Daniel Cossins, Discriminating Algorithms, April-27-2018
  • Salary Explorer سلم الرواتب والاجور لمهن البرمجة في الاردن , 2020
  • ويكيبيديا، تحيّز خوارزمي، يونيو-11-2020
  • Rebecca Heilweil, why algorithms can be racist and sexist, Feb-18-2020
  • Rumman Chowdhury, Auditing Algorithms for Bias, Oct-24-2018

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *