تعرف على أول نظام ذكاء اصطناعي مريض نفسياً

نظام مهووس بالقتل ويرى الموت في كل شيء

نظام مهووس بالقتل ويرى الموت في كل شيء

893

لا شك أن بعض الناس يخشون الذكاء الاصطناعي، ربما لأنهم رأوا الكثير من الأفلام التي تصوّر الجوانب السيئة من الأنظمة الذكية مثل فيلم Terminator أو فيلم I, Robot.

حيث تبدأ تلك الآلات الذكية بأنظمتها المعقدة ثورة مخيفة ضد الإنسانية والوجود البشري على كوكب الأرض.

لكن لنبتعد قليلاً عن قصص هوليوود الخيالية ونفكّر من الناحية المنطقية: هل يمكن صناعة أنظمة ذكاء اصطناعي مهووسة بالقتل؟

الجواب نعم، هذا ما فعله العلماء Pinar Yanardag و Manuel Cebrian و Iyad Rahwan في معهد ماساتشوستس للتكنولوجيا .

وذلك عندما قاموا ببرمجة خوارزمية الذكاء الاصطناعي من خلال تزويدها ببيانات متعلقة فقط بمحتوى شنيع وعنيف على موقع Reddit.

تم تسمية النظام المريض نفسياً باسم نورمان وذلك في إشارة إلى الشخصية الرئيسية في فيلم Psycho، والهدف هو دراسة حالة عن مخاطر الذكاء الاصطناعي عندما يتم استخدام البيانات المتطرفة في خوارزميات التعلم الآلي.

اختبر العلماء نورمان ليروا كيف سيستجيب لاختبارات تفسير صور الحبر، وهو اختبار يقوم على فكرة استخدام صور حبرية غامضة للمساعدة في تحديد خصائص الشخصية أو الأداء العاطفي.

في التجربة الأولى شاهد نورمان بشكل طبيعي مجموعة من الطيور تجلس فوق رأس شجرة، لكن بعد ذلك بدأ برؤية أشياء غريبة في الصور التي يتم عرضها عليه.

قام نورمان بتفسير إحدى الصور على أنها لرجل يُصعق بالكهرباء حتى الموت، أما بقية الصور فلم تكن أفضل حالاً فصورة لطائر بالأبيض والأسود تم تفسيرها على أنها صور لرجل يتم سحبه إلى آلة العجين.

صورة أخرى لأحد الأشخاص الذي يحمل مظلة تم تفسيرها على أنها صورة رجل يُقتل على يد سائق مسرع، كما رأى نورمان رجلاً يُقتل بالرصاص أمام زوجته عندما تم عرض صورة لكعكة زفاف.

وقد لخّص الباحثون النتائج التي حصلوا عليها بأن نورمان يرى الموت في كل شيء.

أراد الباحثون من خلال تجربتهم الأخيرة التأكيد على أن خطر الذكاء الاصطناعي لا يأتي من تلك الأنظمة ولا من الخوارزميات التي تشغّلها، وإنما المسؤول الأهم على تحديد سلوك النظام هو البيانات التي يتم استخدامها.

فبسبب البيانات المتطرفة والعنيفة التي تم استخدامها في التجربة، أصبح نورمان مريضاً نفسياً ولا يستطيع أن يرى إلا الأشياء السيئة والمرعبة.

وهنا نتذكر كيف اضطرت شركة مايكروسوفت في عام 2016 إلى إلغاء برنامج الرد التلقائي على موقع تويتر والمسمّى Tay بعد ساعات من إطلاقه بسبب تعلّمه إطلاق الشتائم على المستخدمين واستخدام لغة سيئة وعنصرية بحقهم.

مقالات قد تعجبك:

ماهي النفايات الإلكترونية؟ وكيف ولمَ علينا إعادة تدويرها؟
ما هي حساسات الهواتف المحمولة ؟ وكيفية عملها
كيفية اكتشاف الفيديو المزور ببرمجية Deep Fake لاستبدال الأوجه
هل من الآمن شراء بطاقة رسوميات مستعملة؟
هل يمكن إنشاء واستخدام حساب فيس بوك باسم وهمي ؟
قد يعجبك ايضا

التعليقات مغلقة.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept