أضافت جوجل إمكانيات متعددة الوسائط إلى روبوت الذكاء الاصطناعي المُركّز على البحث، مما يُمكّنه من “رؤية” الصور والإجابة على أسئلة حولها، وذلك في إطار توسيع نطاق الوصول إلى “وضع الذكاء الاصطناعي” ليشمل “ملايين المستخدمين الآخرين”.
يجمع هذا التحديث بين إصدار مُخصّص من Gemini AI وتقنية التعرف على الصور Lens من الشركة، مما يسمح لمستخدمي البحث باستخدام وضع الذكاء الاصطناعي التقاط صورة أو تحميلها وتلقي “ردّ شامل وغنيّ بالروابط” حول محتواها.
يتوفر هذا التحديث متعدد الوسائط لوضع الذكاء الاصطناعي ابتداءً من اليوم، ويمكن الوصول إليه عبر تطبيق جوجل على نظامي Android وiOS.
وقالت جوجل: “بفضل إمكانيات Gemini متعددة الوسائط، يُمكن لوضع الذكاء الاصطناعي فهم المشهد بأكمله في الصورة، بما في ذلك سياق كيفية ارتباط الأشياء ببعضها البعض، وموادها وألوانها وأشكالها وترتيباتها الفريدة”.
تقول جوجل إن التحديث يستخدم “تقنية التوزيع” التي تُصدر استعلامات متعددة حول الصورة التي تظهر، وأي كائنات داخلها، لتقديم إجابات “دقيقة للغاية وذات صلة بالسياق”.
يتيح ذلك لها القيام بأشياء مثل تحديد الكتب المعروضة داخل الصورة، واقتراح عناوين مشابهة ذات تقييمات إيجابية، والإجابة على أسئلة لتحسين التوصيات.

يُعدّ وضع الذكاء الاصطناعي للبحث بمثابة ردّ جوجل على Perplexity و ChatGPT Search، وهو تجربة شبيهة ببرامج الدردشة الآلية، تُجيب على الاستفسارات بملخصات مُولّدة بالذكاء الاصطناعي، مُستقاة من جميع نتائج بحث جوجل.
وكان وضع الذكاء الاصطناعي قد أُطلق حصريًا لمشتركي Google One AI Premium الشهر الماضي، ولكن ضمن باقة Labs فقط.
والآن، تُعلن جوجل عن بدء توفير وضع الذكاء الاصطناعي لملايين إضافية من مستخدمي Labs في الولايات المتحدة، ليس فقط لمشتركي AI Premium المدفوعين.