بدأت جوجل بطرح ميزات ذكاء اصطناعي جديدة لخدمة Gemini Live، تتيح لها “رؤية” وفهم شاشة الهاتف أو ما يتم عرضه عبر كاميرا الهاتف الذكي والإجابة على أسئلة حول أي منهما في الوقت الفعلي، وفقًا لما أكده المتحدث باسم جوجل
تأتي هذه الميزات بعد عام تقريبًا من عرض جوجل لأول مرة لـ”مشروع أسترا” الذي يٌعنى بالقدرة على فهم العالم من حول المستخدم عبر كاميرا الهاتف الذكي.
وأفاد أحد مستخدمي Reddit أن الميزة ظهرت على هاتف Xiaomi الخاص به، كما رصدها موقع 9to5Google. واليوم، نشر المستخدم نفسه الفيديو أدناه الذي يُظهر قدرة Gemini الجديدة على قراءة الشاشة.
وهي إحدى الميزتين اللتين أعلنت جوجل في أوائل مارس أنها “ستبدأ طرحهما لمشتركي Gemini Advanced كجزء من باقة Google One AI Premium” في وقت لاحق من الشهر.
أما الميزة الثانية التي ستُطرح فهي الفيديو المباشر، الذي يُتيح لـ Gemini تفسير البث من كاميرا الهاتف الذكي فورًا والإجابة على أسئلة حوله.
في الفيديو التوضيحي أدناه، الذي نشرته جوجل هذا الشهر، يستخدم شخص هذه الميزة لطلب المساعدة من Gemini في اختيار لون طلاء مناسب:
يُعدّ طرح جوجل لهذه الميزات مثالاً جديدًا على ريادتها الكبيرة في مجال مساعدات الذكاء الاصطناعي، حيث تُجهّز أمازون لإطلاق نسخة محدودة من أليكسا بلس، بينما أجّلت آبل تحديث سيري.
من المفترض أن يتمتع كلا النظامين بقدرات مشابهة لتلك التي بدأت أسترا زين بتفعيلها حاليًا. في الوقت نفسه، لا تزال سامسونج تستخدم بيكسبي، إلا أن جيميني هو المساعد الافتراضي على هواتفها.