أداة الذكاء الاصطناعي لتحسين الصور الضبابية أظهرت تحيزاً عرقياً

سبب التحيز والحاجة إلى تطوير الخوارزميات المستخدمة

758

إنها صورة مثيرة للجدل توضح ما يمكن تسميته بالتحيّز المتأصل في أبحاث الذكاء الاصطناعي. تم إدخال صورة منخفضة الدقة لباراك أوباما، أول رئيس أسود للولايات المتحدة، في خوارزمية مصممة لتوليد الوجوه لصور مبكسلة، وظهرت النتيجة رجل أبيض!

إنه ليس أوباما، وإذا قمت بتطبيق نفس الخوارزمية لإنشاء صور عالية الدقة للممثلة Lucy Liu أو عضوة الكونجرس Alexandria Ocasio-Cortez من صور منخفضة الدقة، ستبدو الوجوه الناتجة بيضاء بشكل واضح.

وكما ورد في إحدى التغريدات الشهيرة نقلاً عن مثال صورة أوباما: “هذه الصورة تتحدث عن مخاطر التحيز في الذكاء الاصطناعي”.

ولكن ما الذي يسبب هذه النتائج وما الذي يخبروننا به حقاً عن تحيز الذكاء الاصطناعي؟

أولاً، نحتاج إلى معرفة القليل عن التكنولوجيا المستخدمة هنا، البرنامج الذي يولد هذه الصور هو خوارزمية تسمى PULSE، والتي تستخدم تقنية تعرف باسم رفع مستوى (ترقية) معالجة البيانات المرئية Upscaling to process visual data.

Upscaling أو الترقية هي مثل التكبير والتحسين التي تراها في التلفاز والأفلام، ولكن على عكس هوليوود، لا يمكن للبرامج الحقيقية إنشاء بيانات جديدة من لا شيء.

فمن أجل تحويل صورة منخفضة الدقة إلى صورة عالية الدقة، يجب على البرنامج ملء الفراغات باستخدام التعلم الآلي.

في حالة PULSE، فإن الخوارزمية التي تقوم بهذا العمل هي StyleGAN، والتي تم إنشاؤها بواسطة باحثين من شركة إنفيديا NVIDIA.

على الرغم من أنك ربما لم تسمع عن StyleGAN من قبل، فمن المحتمل أنك على دراية بعملها. إنها الخوارزمية المسؤولة عن جعل هذه الوجوه البشرية الواقعية جداً التي يمكنك رؤيتها على مواقع مثل ThisPersonDoesNotExist.com؛ وجوه واقعية جداً لدرجة أنها تُستخدم غالباً لإنشاء ملفات شخصية وهمية لوسائل التواصل الاجتماعي.

ما تفعله PULSE هو استخدام خوارزمية StyleGAN لتخيل النسخة عالية الدقة من المدخلات المبكلسة (ضبابية على شكل بكسلات). وهي لا تفعل ذلك من خلال تحسين الصورة الأصلية منخفضة الدقة، ولكن من خلال إنشاء وجه عالي الدقة جديد تماماً، بحيث عندما يتم بكسلته (تحويله إلى بكسلات كبيرة)، سيبدو نفس الوجه الذي أدخله المستخدم.

هذا يعني أنه يمكن تطبيق الخوارزمية الترقية وإنتاج كل صورة بعدة طرق، بنفس الطريقة التي تصنع بها مجموعة واحدة من المكونات أطباق مختلفة من الطعام.

ولهذا أيضاً يمكنك استخدام PULSE لمعرفة ما يبدو عليه رجل Doom ، أو بطل Wolfenstein 3D، أو حتى الرموز التعبيرية التي تبكي بدقة عالية.

لا يعني أن الخوارزمية تبحث عن تفاصيل جديدة في الصورة كما هو الحال في التكبير والتحسين؛ ولكن بدلاً من ذلك، يخترع وجوهاً جديدة استناداً إلى بيانات الإدخال.

كان هذا النوع من العمل ممكناً نظرياً لبضع سنوات سابقة من الآن، ولكن، كما هو الحال غالباً في عالم الذكاء الاصطناعي، وصل إلى جمهور أكبر عندما تمت مشاركة نسخة سهلة التشغيل من الكود عبر الإنترنت في نهاية هذا الأسبوع. وذلك عندما بدأت التفاوتات العرقية في الظهور.

يقول منشئو PULSE أن الاتجاه واضح: عند استخدام الخوارزمية لتوسيع الصور المنقطة، غالباً ما تولد الخوارزمية وجوهاً ذات ميزات قوقازية.

كتب منشئو الخوارزمية على Github:

يبدو أن خوارزمية PULSE تنتج وجوهاً بيضاء بشكل متكرر أكثر بكثير من وجوه الأشخاص الملونين، من المرجح أن هذا التحيز موروث من مجموعة البيانات StyleGAN التي تم تدريبها، على الرغم من أنه قد تكون هناك عوامل أخرى لا ندركها.

بمعنى آخر، نظراً للبيانات التي تم تدريب StyleGAN عليها، عندما تحاول ابتكار وجه يشبه صورة الإدخال المنقطة، يتم تعيينها افتراضياً على الميزات البيضاء.

هذه المشكلة شائعة للغاية في التعلم الآلي، وهي أحد أسباب أداء خوارزميات التعرف على الوجه بشكل أسوأ على الوجوه غير البيضاء والأنثوية.

غالباً ما تنحرف البيانات المستخدمة في تدريب الذكاء الاصطناعي نحو الرجال الديموغرافيين البيض، وعندما يرى البرنامج البيانات ليست في هذه الديموغرافية، فإن أداءه يضعف. ليس من قبيل الصدفة، فالرجال البيض هم الذين يسيطرون على أبحاث الذكاء الاصطناعي.

في الواقع، إن هذه الصورة المفردة أثارت خلافات شديدة بين أكاديميين ومهندسين وباحثين في الذكاء الاصطناعي.

على المستوى الفني، بعض الخبراء ليسوا على يقين من أن هذا مثال على تحيز مجموعة البيانات، حيث يقترح عالم الذكاء الاصطناعي Mario Klingemann أن اللوم يقع على خوارزمية اختيار PULSE نفسها، بدلاً من البيانات.

يلاحظ Klingemann أنه كان قادراً على استخدام StyleGAN لتوليد المزيد من النتائج غير البيضاء من نفس صورة أوباما المنقطة، كما هو موضح أدناه:

تم إنشاء هذه الوجوه باستخدام نفس المفهوم ونموذج StyleGAN نفسه ولكن طرق البحث المختلفة لـ Pulse، كما يقول Klingemann، الذي يقول إنه لا يمكننا الحكم على خوارزمية من عينات قليلة فقط.

وقال:

ربما هناك الملايين من الوجوه المحتملة التي ستختزل جميعها إلى نفس النمط المبكسل وكلها صحيحة على حد سواء.

بالمناسبة، هذا أيضاً هو السبب في أنه من غير المرجح أن تستخدم مثل هذه الأدوات لأغراض المراقبة. الوجوه التي تم إنشاؤها بواسطة هذه العمليات خيالية، وكما توضح الأمثلة أعلاه، ليس لها علاقة تذكر بالحقيقة الأساسية للمدخلات. إنها ليست مثل العيوب التقنية الضخمة التي منعت الشرطة من تبني التكنولوجيا في الماضي).

ولكن بغض النظر عن السبب، تبدو مخرجات الخوارزمية متحيزة، وهو أمر لم يلاحظه الباحثون قبل أن تصبح الأداة متاحة على نطاق واسع.

وفي تصريح لـ Deborah Raji، باحثة في الذكاء الاصطناعي، قالت أن هذا النوع من التحيز نموذجي جداً في عالم الذكاء الاصطناعي.

حقيقة أن بعض الباحثين يبدو أنهم حريصون على معالجة جانب البيانات فقط من مشكلة التحيز هو ما أثار جدالات أكبر حول صورة أوباما.

أصبح كبير علماء الذكاء الاصطناعي في فيسبوك Yann LeCun نقطة مضيئة في المحادثات بعد أن غرد رداً على الصورة قائلاً إن أنظمة ML متحيزة عند انحياز البيانات، مضيفاً أن هذا النوع من التحيز يمثل مشكلة أكثر خطورة في منتج منتشر من ورقة أكاديمية المعنى الضمني: لا تقلق كثيراً بشأن هذا المثال بالذات.

العديد من الباحثين، من بينهم راجي، اعترضوا على تأطير LeCun، مشيرين إلى أن التحيز في الذكاء الاصطناعي يتأثر بالظلم والتحيزات الاجتماعية الأوسع.

وأشار آخرون إلى أنه حتى من وجهة نظر تقنية بحتة، فإن مجموعات البيانات العادلة غالباً ما تكون غير ذلك.

على سبيل المثال، ستكون مجموعة بيانات من الوجوه التي تعكس بدقة التركيبة السكانية للمملكة المتحدة بيضاء في الغالب لأن المملكة المتحدة بيضاء في الغالب.

إن أداء خوارزمية تم تدريبها على هذه البيانات أفضل على الوجوه البيضاء من الوجوه غير البيضاء. وبعبارة أخرى، لا يزال بإمكان مجموعات البيانات العادلة إنشاء أنظمة متحيزة. (في سلسلة رسائل لاحقة على تويتر Twitter، أقر LeCun بوجود أسباب متعددة لتحيز الذكاء الاصطناعي).

صرحت راجي أنها فوجئت أيضاً بتصريح LeCun بأن على الباحثين أن يقلقوا من التحيز أقل من المهندسين الذين ينتجون أنظمة تجارية، وأن هذا يعكس نقص الوعي في أعلى مستويات الصناعة.

تقول راجي: Yann LeCun يقود مختبراً صناعياً معروفاً بالعمل على العديد من مشاكل البحث التطبيقي التي يسعون بانتظام إلى إنتاجها، أنا حرفياً لا أستطيع أن أفهم كيف لا يعترف شخص في هذا المنصب بالدور الذي يلعبه البحث في وضع معايير للنشر الهندسي.

عندما تم الاتصال بها بشأن هذه التعليقات، أشار LeCun إلى أنه ساعد في إنشاء عدد من المجموعات، داخل فيسسبوك Facebook وخارجه، والتي تركز على عدالة وسلامة الذكاء الاصطناعي.

ومع ذلك، يتم بناء العديد من أنظمة الذكاء الاصطناعي التجارية مباشرة من بيانات وخوارزميات البحث دون أي تعديل للتفاوت العرقي أو النوعي، الفشل في معالجة مشكلة التحيز في مرحلة البحث يديم فقط المشاكل القائمة.

وبهذا المعنى، فإن قيمة صورة أوباما ليست أنها تكشف عن خلل واحد في خوارزمية واحدة؛ إنها توصل، على مستوى بديهي، الطبيعة المنتشرة لتحيز الذكاء الاصطناعي.

ومع ذلك، فإن ما تخفيه هو أن مشكلة التحيز أعمق من أي مجموعة بيانات أو خوارزمية، إنها مشكلة منتشرة تتطلب أكثر من الإصلاحات التقنية.

كما رد أحد الباحثين، Vidushi Marda، على تويتر Twitter على الوجوه البيضاء التي تنتجها الخوارزمية: هذه ليست دعوة إلى التنوع في مجموعات البيانات أو الدقة المحسنة في الأداء، إنها دعوة لإعادة النظر بشكل أساسي في المؤسسات والأفراد الذين يقومون بتصميم هذه التقنية وتطويرها ونشرها في المقام الأول.

مقالات قد تعجبك:

واتساب أضاف ميزة الملصقات المتحركة إلى النسخة التجريبية ثم أزالها
إصدار جديد قادم لسلسة ألعاب Crash Bandicoot بعد أكثر من 20 عاماً!
خدمة الدفع الجديدة في واتساب توقفت في البرازيل
ما هي تقنية بلوتوث 5.1 الجديدة ؟ و ما ميزاتها ؟
بلوتوث 5.1 هو مستقبل المنزل الذكي SmartHome
لماذا تحسن إعادة التشغيل من أداء الهاتف وتحل المشاكل العامة؟

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept