لا شك أن بعض الناس يخشون الذكاء الاصطناعي، ربما لأنهم رأوا الكثير من الأفلام التي تصوّر الجوانب السيئة من الأنظمة الذكية مثل فيلم Terminator أو فيلم I, Robot.
حيث تبدأ تلك الآلات الذكية بأنظمتها المعقدة ثورة مخيفة ضد الإنسانية والوجود البشري على كوكب الأرض.
لكن لنبتعد قليلاً عن قصص هوليوود الخيالية ونفكّر من الناحية المنطقية: هل يمكن صناعة أنظمة ذكاء اصطناعي مهووسة بالقتل؟
الجواب نعم، هذا ما فعله العلماء Pinar Yanardag و Manuel Cebrian و Iyad Rahwan في معهد ماساتشوستس للتكنولوجيا .
https://twitter.com/HeyMrBuckley/status/1004772523534237696
وذلك عندما قاموا ببرمجة خوارزمية الذكاء الاصطناعي من خلال تزويدها ببيانات متعلقة فقط بمحتوى شنيع وعنيف على موقع Reddit.
تم تسمية النظام المريض نفسياً باسم نورمان وذلك في إشارة إلى الشخصية الرئيسية في فيلم Psycho، والهدف هو دراسة حالة عن مخاطر الذكاء الاصطناعي عندما يتم استخدام البيانات المتطرفة في خوارزميات التعلم الآلي.
اختبر العلماء نورمان ليروا كيف سيستجيب لاختبارات تفسير صور الحبر، وهو اختبار يقوم على فكرة استخدام صور حبرية غامضة للمساعدة في تحديد خصائص الشخصية أو الأداء العاطفي.
في التجربة الأولى شاهد نورمان بشكل طبيعي مجموعة من الطيور تجلس فوق رأس شجرة، لكن بعد ذلك بدأ برؤية أشياء غريبة في الصور التي يتم عرضها عليه.
In case you need new nightmare fuel…
I do not understand why @MIT
has done this 😳Is there nothing else to do?
*literally gestures everywhere *https://t.co/ximpga7WFj
— ScientistMel on bluesky and countersocial (@ScientistMel) June 7, 2018
قام نورمان بتفسير إحدى الصور على أنها لرجل يُصعق بالكهرباء حتى الموت، أما بقية الصور فلم تكن أفضل حالاً فصورة لطائر بالأبيض والأسود تم تفسيرها على أنها صور لرجل يتم سحبه إلى آلة العجين.
صورة أخرى لأحد الأشخاص الذي يحمل مظلة تم تفسيرها على أنها صورة رجل يُقتل على يد سائق مسرع، كما رأى نورمان رجلاً يُقتل بالرصاص أمام زوجته عندما تم عرض صورة لكعكة زفاف.
وقد لخّص الباحثون النتائج التي حصلوا عليها بأن نورمان يرى الموت في كل شيء.
أراد الباحثون من خلال تجربتهم الأخيرة التأكيد على أن خطر الذكاء الاصطناعي لا يأتي من تلك الأنظمة ولا من الخوارزميات التي تشغّلها، وإنما المسؤول الأهم على تحديد سلوك النظام هو البيانات التي يتم استخدامها.
imagine being murdered by the world’s most insufferable robot and the last thing you hear before you die is “ad hominem” https://t.co/lyshrr0gOf
— Brandy Jensen (@BrandyLJensen) June 7, 2018
فبسبب البيانات المتطرفة والعنيفة التي تم استخدامها في التجربة، أصبح نورمان مريضاً نفسياً ولا يستطيع أن يرى إلا الأشياء السيئة والمرعبة.
وهنا نتذكر كيف اضطرت شركة مايكروسوفت في عام 2016 إلى إلغاء برنامج الرد التلقائي على موقع تويتر والمسمّى Tay بعد ساعات من إطلاقه بسبب تعلّمه إطلاق الشتائم على المستخدمين واستخدام لغة سيئة وعنصرية بحقهم.