Web Analytics
أخبار هولندا

خوارزميات الأنترنت تلعب دوراً كبيراً في التمييز العنصري في إيجاد الوظائف!

تلعب الخوارزميات دورًا متزايدًا في بحث الشركات عن الموظفين ، ولكن هذا ليس دائمًا موضوعيًا. من المرجح أن تتوافق النساء مع الوظائف الشاغرة براتب أقل من الرجال ، وفقًا للبحث. يتم تعزيز الأحكام المسبقة الموجودة بواسطة أجهزة الكمبيوتر والتي تحتاج إلى تحسين.

إذا سمحت لجهاز كمبيوتر بإجراء تطابق بين سيرة ذاتية ووظيفة شاغرة عبر خوارزمية ، فعليك أن تأخذ في الاعتبار أن النظام متحيز للغاية. غالبًا ما ترتبط النساء بوظائف في مجال الرعاية أو رعاية الأطفال ، ومن المرجح أن ينتهي الأمر بالرجال في البناء.

الراتب أقل أيضًا بالنسبة للوظائف الشاغرة للنساء: في المتوسط ​​يكسبن 1680 يورو أقل على أساس سنوي ، وفقًا لبحث أجرته جامعة رادبود. تم إجراء هذا البحث بناءً على طلب بنك العطلات الوطني ، الذي قدم البيانات أيضًا.

حالة سيئة

في المجموع ، تمت مطابقة 900000 سيرة ذاتية مجهولة و 12 مليون نص شاغر عبر ما يسمى بالذكاء الاصطناعي. يقول Gido Schoenmacker ، رئيس علوم البيانات في Nationale Vacaturebank ، إن الأمر يتعلق بسلسلة من الاختبارات.

تريد الشركة استخدام الخوارزميات في كثير من الأحيان عند تقديم الوظائف الشاغرة للباحثين عن عمل. يجري العمل على أنظمة الكمبيوتر ذاتية التعلم ، لكن التحيزات تتسلل بسرعة. يقول شوينماكر: “شيء سيء”. يجب أن يساعد البحث في منع التمييز في المطابقة.

تضخم التحيز

الخوارزميات التمييزية؟ الحقيقة ليست جديدة: في الماضي القريب ، على سبيل المثال ، تم انتقاد برامج التعرف على الوجه لفشلها في تحديد الأقليات العرقية. تعرضت أمازون أيضًا للنقد لأن أدوات التوظيف الخاصة بالشركة كانت تفضل الرجال البيض.

هذا جزئيًا لأن هذه الخوارزميات تعمل على أساس البيانات التي يدخلها الأشخاص. يقول شونماكر: “إنهم يضخمون الأحكام المسبقة الموجودة”. على سبيل المثال ، هذا يعني أن احتمالية عثور النساء على عمل أقل ، لأن الرجال يتم اختيارهم دائمًا لبعض الوظائف.

المزيد والمزيد من الشركات تستخدم هذه الأدوات

خلص المعهد الهولندي لحقوق الإنسان مؤخرًا إلى أن هذا ليس جيدًا. حذرت الوكالة من استخدام LinkedIn أو لوحات الوظائف عند التقدم للوظائف ، لأن الأنظمة يمكن أن تؤدي إلى التمييز. تستخدم المزيد والمزيد من الشركات هذه الأنواع من الأدوات ، لكنها لا تدرك المخاطر كثيرًا.

كيف يمكن أن يكون أكثر عدلا؟ دون تمييز على أساس العرق أو الدين أو الجنس. وفقًا للباحثين ، تلعب اللغة دورًا مهمًا.

على سبيل المثال ، يمكن للكمبيوتر أن يحدد من لغة السيرة الذاتية ما إذا كان رجلاً أو امرأة ، حتى لو كان الجنس غير معروف. على سبيل المثال ، تعتبر كلمات مثل عقلية الفوز والنتائج أكثر شيوعًا في السير الذاتية للرجال ، وهذه أيضًا هي الكلمات التي ستجدها في توصيف الوظائف للوظائف ذات الأجور الأعلى.

الاختبار في الممارسة

ومع ذلك ، إذا قمت بإعداد خوارزمية بطريقة لم تعد قادرة على تخمين ما إذا كان رجلاً أو امرأة ، فيمكنك القضاء على التحيز وسد الفجوة. أحد النماذج المستخدمة في الدراسة ضمن أن المرأة لديها متأخرات راتب تبلغ 180 يورو فقط على أساس سنوي.

يقول شوينماكر: “يمكنك في الأساس تعليم النظام ما تريد”. ومع ذلك ، ليس من الواضح ما إذا كانت طريقة العمل هذه توفر أيضًا تطابقًا جيدًا بين الباحث عن عمل وصاحب العمل. يأمل Schoenmacker أن يكون قادرًا على اختبار هذا عمليًا العام المقبل. المزيد من البحث سيتبع أيضاً.

المصدر: RTL

مقالات ذات صلة

اترك تعليقاً

زر الذهاب إلى الأعلى
error: