قالت صحيفة وول ستريت جورنال إن شركة OpenAI تمتلك نظاماً فعالاً لتمييز النصوص المنشأة بواسطة ChatGPT، من خلال علامة مائية افتراضية، وهو جاهز منذ حوالي عام تقريباً.
وذكرت الشركة إن نظامها هذا دقيق للغاية (“فعال بنسبة 99.9%) ومقاوم للتلاعب مثل إعادة الصياغة.
إلا أنّ الشركة منقسمة داخليًا حول إطلاق هذا النظام من عدمه، فمن ناحية، يبدو أن هذا هو الشيء المسؤول الذي يجب القيام به؛ ومن ناحية أخرى، يمكن أن يضر بالنتيجة النهائية.
ويعتمد هذا النظام بشكل مبسط على أن العلامة المائية لـ OpenAI تضبط كيفية توقع النموذج للكلمات والعبارات الأكثر احتمالية التي ستتبع الكلمات والعبارات السابقة، مما يؤدي إلى إنشاء نمط يمكن اكتشافه.
إنّ تقديم طريقة موثوقة لاكتشاف المواد المكتوبة بواسطة الذكاء الاصطناعي بمثابة نعمة كبيرة للمعلمين الذين يحاولون ردع الطلاب عن الاعتماد كلية على الذكاء الاصطناعي.
وأيد الناس في استطلاع أجرته الشركة في جميع أنحاء العالم فكرة وجود أداة كشف تعمل بالذكاء الاصطناعي بنسبة أربعة إلى واحد.
ولكن يبدو أن OpenAI تشعر بالقلق أيضًا من أن استخدام العلامة المائية قد يؤدي إلى إيقاف مستخدمي ChatGPT الذين شملهم الاستطلاع.
حيث ذكر حوالي 30 بالمائة منهم أنهم سيستخدمون البرنامج بشكل أقل إذا تم تنفيذ العلامة المائية.
على الرغم من ذلك، لا يزال بعض الموظفين يشعرون بأن العلامة المائية فعالة. ومع ذلك، في ضوء مشاعر المستخدمين المزعجة، تقول الصحيفة إن البعض اقترح تجربة أساليب أقل إثارة للجدل بين المستخدمين.
وقالت الشركة مؤخراً إنها “في المراحل الأولى” لاستكشاف تضمين البيانات الوصفية في النصوص المنشأة بواسطة الذكاء الاصطناعي.
وتقول إنه لا يزال من المبكر جدًا معرفة مدى نجاحها، ولكن نظرًا لأنها موقعة بشكل مشفر، فلن تكون هناك نتائج إيجابية كاذبة.