روبوت الدردشة الخاص ب Bing AI يرتكب أخطاء غبية

وذلك خلال أول عرض توضيحي قامت به مايكروسوفت

1٬364

كشفت شركة مايكروسوفت Microsoft قبل أيام عن محرك البحث الخاص بها المدعوم بالذكاء الاصطناعي Bing AI.

وأثبتت الشركة كفاءته من خلال عرض توضيحي ظهرت فيه بعض الأمثلة العملية.

مثل كيفية التخطيط لرحلة مدتها 5 أيام إلى مدينة مكسيكو مثلاً، ومقارنة البيانات في التقارير المالية، وغير ذلك.

إلا أنّ بعض الباحثين اكتشفوا أخطاء جسيمة فيه وضمن نفس العرض التوضيحي للشركة.

حيث قال الباحث المستقل في مجال الذكاء الاصطناعي دميتري بريريتون أن أول عروض Bing AI التوضيحية لشركة Microsoft كانت مليئة بأخطاء البيانات المالية.

ففي أحد العروض التوضيحية يحاول Bing AI تلخيص تقرير مالي للربع الثالث من عام 2022 لشركة Gap للملابس.

حيث ذكر تقرير الشركة أن الهامش الإجمالي كان 37.4 في المائة، مع هامش إجمالي معدل عند 38.7 في المائة باستثناء رسوم انخفاض القيمة.

فيما ذكر Bing وبشكل غير دقيق عن الهامش الإجمالي بنسبة 37.4 في المائة بما في ذلك رسوم التعديل وانخفاض القيمة.

ثم يذهب Bing إلى القول إن Gap لديها هامش تشغيل يبلغ 5.9 في المائة، والذي لا يظهر في النتائج المالية.

فيما كان الهامش التشغيلي بحسب الشركة 4.6 في المائة، أو 3.9 في المائة معدلاً شاملاً رسوم انخفاض القيمة.

ثم يواصل Bing AI بعد ذلك مقارنة بيانات Gap المالية بنتائج شركة Lululemon نفسها خلال الربع الثالث من عام 2022.

يرتكب Bing المزيد من الأخطاء في بيانات شركة Lululemon، والنتيجة هي مقارنة مليئة بالأخطاء.

ولم تقف الأخطاء هنا حيث كشف الباحث أخطاء تتعلق بإيجابيات وسلبيات مكانس الحيوانات الأليفة الأكثر مبيعًا.

حيث ذكر Bing مثالاً لمكنسة كهربائية وقال أنّ من مساوئها السلك الطويل، على الرغم من أن المكنسة هي لا سلكية أصلاً.

ومع ذلك فإن الأخطاء لم تقتصر على العروض التوضيحية على خشبة المسرح فقط.

فالآن وبعد أن تمكن الآلاف من الأشخاص من الوصول إلى محرك البحث المدعوم بالذكاء الاصطناعي، فإنّ Bing AI يرتكب أخطاء أكثر وضوحًا.

واحد من أغرب هذه الأخطاء هو ما نشره أحد رواد موقع Reddit، والذي ذكر فيه Bing AI أنّنا في عام 2022.

حيث يقول Bing AI: “أنا آسف، لكن اليوم ليس عام 2023، نحن في عام 2022”.

وعندما يخبره المستخدم بأن التاريخ على الهاتف هو 2023 فإن Bing يقترح التحقق من أنه يحتوي على الإعدادات الصحيحة، والتأكد من أن الهاتف لا يحتوي على ‘فيروس أو خطأ يعبث بالتاريخ’.

ووجد مستخدم آخر خطأً واضحاً حيث ذكر Bing AI بثقة وبشكل غير صحيح طبعا بأن كرواتيا غادرت الاتحاد الأوروبي في عام 2022.

مايكروسوفت على علم بهذه الأخطاء، حيث قالت مديرة التواصل في الشركة: ‘نتوقع أن النظام قد يرتكب أخطاء أثناء فترة المعاينة هذه”.

وأضافت بأن التعليقات ضرورية للمساعدة في تحديد المواضع الخاطئة من أجل تصحيحها ومساعدة النماذج على التحسن.

وجد مستخدمو Bing AI الآخرون أيضًا أن روبوت الدردشة غالبًا ما يشير إلى نفسه باسم Sydney، خاصةً عندما يستخدم المستخدمون الحقن الفوري لمحاولة إظهار القواعد الداخلية لـ chatbot.

فيما قالت الشركة إن Sydney هو اسم رمزي داخلي لتجربة محادثة سابقة.

من الواضح أن Microsoft أمامها طريق طويل لتقطعه حتى تتمكن Bing AI الجديد من الاستجابة بثقة ودقة لجميع الاستفسارات ببيانات واقعية.

لقد رأينا أخطاء مماثلة من ChatGPT في الماضي، لكن Microsoft قامت بدمج هذه الوظيفة مباشرةً في محرك البحث الخاص بها كمنتج مباشر يعتمد أيضًا على البيانات الحية.

ستحتاج Microsoft إلى إجراء الكثير من التعديلات للتأكد من أن Bing AI يتوقف بثقة عن ارتكاب الأخطاء باستخدام هذه البيانات.

مقالات قد تعجبك

أوبرا تكشف عن ميزة جديدة معتمدة على بوت الدردشة ChatGPT في متصفحها
تفاصيل جديدة عن خطة مايكروسوفت دمج تقنية الذكاء الاصطناعي الجديدة في برامج أوفيس
ريلمي تكشف عن إصدار مخصّص من هاتف Realme 10 Pro لعشاق كوكا كولا
كيفية إعادة ضبط (تعيين) خوارزمية تيك توك TikTok
كيفية زيادة سطوع ضوء فلاش الهاتف
قد يعجبك ايضا

التعليقات مغلقة.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept