خدمة Gmail حظرت 100 مليون بريد إلكتروني مزعج يومياً

مع استخدام فلاتر الذكاء الاصطناعي الجديدة

قامت شركة جوجل Google بتوظيف بيئة العمل مفتوحة المصدر TensorFlow الخاصة بها والتي تعتمد على مفاهيم التعلم الآلي والذكاء الاصطناعي للمساعدة في تدريب فلاتر البريد العشوائي لخدمة البريد الإلكتروني Gmail.

ومع تطبيق الفلاتر الجديدة اعتباراً من الشهر الماضي، زعمت الشركة أن Gmail استطاع حظر 100 مليون بريد إلكتروني غير مرغوب فيه إضافي كل يوم.

بالنسبة إلى عدد مستخدمين يبلغ 1.5 مليار مستخدم في Gamil فإن هذا لا يعني بالضرورة رقماً كبيراً جداً، لكن جوجل أصبحت الآن – بحسب ما تم الكشف عنه – قادرة على اكتشاف وحظر 99.9% من كافة رسائل البريد المزعجة.

وقال Neil Kumaran أحد المسؤولين في إدارة المنتجات في الشركة لموقع The Verge:

في النطاق الذي نعمل فيه، لا يمكن اكتشاف وحظر 100 مليون رسالة مزعجة إضافية بسهولة، حيث أصبح الحصول على الجزء الأخير من الرسائل غير المرغوب فيها أمراً صعباً، لكن TensorFlow كانت رائعة لإغلاق هذه الفجوة.

تستخدم خدمة البريد الإلكتروني Gmail فلاتر أساسية لتصفية الرسائل واكتشاف المزعج منها، وعلى الرغم من أن الفلاتر الأساسية القديمة يمكن أن تمنع الرسائل المزعجة الأكثر وضوحاً، إلا إن الفلاتر الذكية الجديدة قادرة على تحديد رسائل لا يمكن اكتشافها بسهولة.

حيث تعمل الخوارزميات الذكية المدربة بهذه الطريقة على تحقيق التوازن بين عدد كبير من المقاييس، بدءاً من تنسيق البريد الإلكتروني إلى وقت إرساله.

حيث سمحت بيئة TensorFlow بجعل إدارة هذه البيانات على نطاق واسع أسهل، في حين أن طبيعة الإطار المفتوح المصدر تعني أنه يمكن دمج إضافات وأبحاث جديدة مستقبلاً.

تم إطلاق TensorFlow بواسطة جوجل في عام 2015، وأصبحت جزءاً مهماً بشكل لا يصدق من أعمال الشركة في مجال الذكاء الاصطناعي.

إنه إطار تعلم آلي مجاني يتيح للمطورين إنشاء أدوات ذكاء اصطناعي لمجموعة كبيرة من المهام، وبطبيعة الحال، فإنها تعمل بسلاسة مع خدمات جوجل الأخرى.

مقالات قد تعجبك:

ما هو الوضع السري في Gmail؟ وكيف يعمل؟
كيفية تغيير كلمة مرور حساب جوجل Google وبريد جيميل Gmail
كيفية إنشاء مجلدات البحث في آوت لوك للحصول على نتائج سريعة وتنظيم الرسائل
ما الذي يجب معرفته عند التبديل إلى جهاز كروم بوك
ما هي ملفات PST و OST لبرنامج آوت لوك ؟ وأين يتم تخزينها؟

تعليقات
جاري تحميل التعليقات ...