كيف يحدث تحيّز الذكاء الاصطناعي وما هي حلوله الممكنة؟
محمد معاذ
باحث في الذكاء الاصطناعي
المصدر: Getty Images
يعمل الذكاء الاصطناعي على تغيير العالم الذي نعيش فيه بشكلٍ جذري، وتتوفّر العديد من التطبيقات التي تهدف إلى جعل حياتنا أسهل مع هذا النوع من التكنولوجيا، وهو اتجاهٌ سيزداد بلا شكّ في السنوات المقبلة. لكن، إلى جانب هذا التطوّر الملموس، لا ينبغي أن نتجاهل جوانب مرتبطة بالأخلاقيات، وتحديدًا مفهوم التحيز أو ما يُعرف بـ "التحيز الخوارزمي" وهو خطأ يقع عندما يتمّ تغذية نماذج تدريب الذكاء الاصطناعي ببيانات مغلوطة تعكس أحكامًا مسبقة، أو يتم ترجيح بيانات على أخرى، ما يؤدي إلى نتائج منحرفة، وأخطاء تحليلية. ولا يقتصر هذا على الجانب التكنولوجي فحسب، بل علينا كبشرأيضًا. وفي حياتنا اليومية، نتّخذ العديد من القرارات، كنوع السيارة التي نقودها، والأفلام التي نشاهدها، والكتب التي نختارها وغيرها... وفي معظم الأوقات، تكون هذه القرارات منحازة دون أن ندرك ذلك، فدماغنا هو الذي يقرّر، وفي معظم الأحيان يعتمد ذلك على خبرتنا أو تعليمنا أو معتقداتنا، وهي العناصر المسؤولة عن هذا التفكير المتحيّز.
1- لماذا هو سيء؟
يعتبر التحيّز من أشهر المشاكل التي تواجه الذكاء الاصطناعي، خصوصاً فيما يتعلّق بالعرق أو الجنس ومن المحتمل أننا قد رأينا بعض العناوين الإخبارية حول هذا الموضوع، مثل أنظمة التعرّف على الوجوه التي تفشل في التعرّف على النساء من الأصول الأفريقية، أو أدوات التوظيف المؤتمتة التي تتجاوز النساء في اختياراتها… وقد شكّل الغضب العالمي الذي وقع مؤخّرًا ضد وفاة الأميركي "جورج فلويد" سببًا في تسليط الضوء على التحيّز الذي قد يكون مفهومًا قائمًا في تقنيات اليوم، حيث يجري إدخال نماذج بيانات قد تحوي على تحيّزات ضمنية، ما يؤدي إلى وقوع التمييز في أنظمة الذكاء الاصطناعي التي تٌصمَّم وتُستخدَم لاتخاذ القرارات من قبل الحكومات والشركات. وتتوقع شركة "آي بي إم" نموّ عدد الأنظمة و الخوارزميات المتحيزة خلال السنوات القليلة القادمة، وهذا أمر يبعث على القلق، لا سيّما وأنه يجري استخدام هذه التقنية بشكلٍ متنامي في قطاعات حسّاسة مثل الرعاية الصحية والعدالة الجنائية وكذلك خدمات العملاء، وغيرها من المجالات. ولسنا واثقين إذا كان الأمر سينتهي فيما بعد بعدم منح نظام الذكاء الاصطناعي قروضًا لأفراد بسبب التحيّزات ما قد يتسبّب في تآكل الثقة مع مرور الوقت، وحتى تهديد التوازن الاقتصادي والاجتماعي.
2- كيف يحدث التحيّز؟
رغم أنه قد تمّ تحديد التحيّز في أنظمة التعرّف على الوجه، وبرامج التوظيف، والخوارزميات الكامنة وراء عمليات البحث على الويب وغيرها، إلّا أنّ السؤال الذي يطرح نفسه هو حول كيفية دخول هذه التحيزات في الأنظمة. ولا بدّ من الإشارة إلى أنّه غالبًا ما نختزل تفسيرنا لتحيّز الذكاء الاصطناعي من خلال إلقاء اللوم على بيانات التدريب. لكن الواقع الأكثر دقّة، أنّه يمكن للتحيّز أن يتسلّل قبل عملية جمع البيانات، حيث يظهر من خلال هذه العمليات الثلاث: بناء النموذج، أو جمع البيانات أو إعداد مجموعة بيانات تحكمها سمات معيّنة. إلّا أننا نجد التحيّزات الأكثر شيوعًا تتمثّل أثناء جمع البيانات. ويمكن أن يحدث هذا في حالتين: إمّا أن تكون البيانات التي تمّ الحصول عليها غير ممثلة للواقع، أو أنها تعكس التحيّزات القائمة. وقد تحدث الحالة الأولى مثلًا، إذا تمّ تغذية خوارزمية التعلّم العميق بصورٍ للوجوه ذات البشرة الفاتحة أكثر من الوجوه ذات البشرة الداكنة، وهذا من شأنه أن يجعل نظام التعرّف على الوجوه سيئًا في التعرّف على ذوي البشرة الداكنة وهذا ما حصل مع التجربة التي قام بها باحثون في جامعة "ديوك" الأمريكية، والتي تضمّنت إدخال صورة منخفضة الدقة لوجه الرئيس الأميركي السابق "باراك أوباما"، وهو أول رئيس من البشرة السمراء للولايات المتحدة، إلّا أن النتيجة كانت توليد صورة عالية الدقة لوجه رجلٍ أبيض، وعند تكرار التجربة تبين أن مثال أوباما ينطبق على آخرين من أصحاب البشرة الداكنة أيضاً. وفي السياق، وجدت دراسة أن تقنيات تحليل الوجه لديها معدلات خطأ أعلى للأقليات وخاصة النساء منها، وربما يرجع ذلك إلى بيانات التدريب غير التمثيلية. أمّا الحالة الثانية فهي تُمثّل ما حدث بالضبط مع شركة "أمازون" التي اكتشفت أنّ أداة التوظيف الداخلي لديها، كانت تقوم بتصفية المرشّحات من الإناث. ونظراً لأنه تمّ تدريبها على سجلّ سابق من القرارات المتخذة، والتي تم فيها تفضيل الرجال على النساء، فقد تعلمت الأداة أن تفعل الشيء نفسه.
3- الحلول الممكنة
ينبغي إدراك أنّ حساسية المسألة تعتمد على كيفية تعريفنا لمفهوم التحيّز.واختيار بيانات التدريب في الأنظمة، يعود في نهاية المطاف إلى المهندسين والعاملين في الذكاء الاصطناعي، لذلك تبرز الحاجة إلى فهمٍ حقيقي للبيانات الأساسية والقيم الخفية والفروق الدقيقة البشرية التي تمثّلها. إنّ إزالة التحيز من مجموعة البيانات ليس الحلّ على الإطلاق، وتتمثّل أفضل طريقة لحل تحيّز الذكاء الاصطناعي، عن طريق التحقّق والتدقيق في الخوارزميات، وذلك لمعرفة ما إذا كانت هناك أنماط من التحيز غير المقصودة، وإعادة تدريب النظام. وفي الوقت الراهن يتمّ العمل على نطاقٍ واسع لمعالجة هذه المشكلة، وذلك من خلال الذكاء الاصطناعي نفسه، حيث يجري الاستعانة بخوارزميات تساعد في كشف التحيّزات والتخفيف منها في بيانات التدريب أو التي تخفّف من التحيزات التي تعلّمتها النماذج بمعزلٍ عن جودة البيانات.
وهناك طرقٌ أخرى، تكمن في محاولة معرفة كيفية توصّل تعلّم الآلة وخوارزميات التعلّم العميق إلى قرار أو ملاحظة محددة. ومن خلال تقنيات التفسير، يمكن معرفة ما إذا كانت النتيجة تستند إلى تحيّز محدد مسبقًا أم لا. وهناك أيضًا حلّ يتلخّص في تشجيع تعليم الأخلاقيات مع الشركات والمنظّمات، من خلال تثقيف الموظفين حول الاختلافات الثقافية وتباين أنماط الحياة، وبهذه الحالة بإمكان المرء أن يخلق الوعي لدى الجماعات على اختلافها داخل المجتمع، والتي ربّما كانت موضع تجاهلٍ أو غير مأخوذة في الاعتبار.
ورغم الجهود المبذولة لإزالة التحيّز من أنظمة الذكاء الاصطناعي لكنها لا تزال صعبة، ويرجع ذلك جزئيًا إلى أنها لا تزال تعتمد على البشر في تدريبها من خلال تحديد نوعية البيانات المدخَلة. وعندما نتعمّق أكثر، نرى أن هناك الكثير من الأشياء التي يجب أخذها بعين الاعتبار. إلّا أنّ بناء ثقافة الإبلاغ والمساءلة والأخلاقيات في مجال الذكاء الاصطناعي، يعني أنه سيكون هناك فرصة مستقبلية لتحديد وإيقاف تحيّز البيانات أو الخوارزميات أو الأنظمة، بما قد يساعد في ضمان أن تعمل هذه التقنية كقوةٍ لتحقيق العدالة والإنصاف إلى حدّ ما!
تعليقات
إرسال تعليق