في I/O 2024، أعطتنا جوجل نظرة على ماهية المساعدين الذكيين في المستقبل من خلال فيديو تشويقي. يتميز Astra بميزة متعددة الوسائط تجمع بين ذكاء Gemini مع قدرات التعرف على الصور التي تحصل عليها من Google Lens، بالإضافة إلى استجابات اللغة الطبيعية القوية. ومع ذلك، بعد تجربتها شخصيًا، يبدو واضحًا أن هناك طريقًا طويلاً يجب أن تسلكه Astra قبل أن يصل إلى هاتفك النقال. لذلك إليك ثلاثة نقاط نستخلصها من تجربتنا الأولى مع الذكاء الاصطناعي من جوجل الجيل القادم.
رأي سام:
حاليًا، يتفاعل معظم الناس مع المساعدين الرقميين باستخدام أصواتهم، لذلك يعتبر استخدام Astra لعناصر متعددة الوسائط (أي باستخدام الرؤية والصوت بالإضافة إلى النص/الكلام) للتواصل مع الذكاء الاصطناعي نسبيًا جديدًا. من النظرية، فإنه يسمح للكيانات المستندة إلى الكمبيوتر بالعمل والسلوك بطريقة تشبه أكثر مساعد حقيقي أو وكيل – وهذا كان أحد الكلمات الرئيسية لعرض جوجل – بدلاً من شيء أكثر روبوتيًا يستجيب فقط للأوامر المنطوقة.
During a demo at Google I/O, Project Astra was able to remember the position of objects seen by a phone’s camera.
Leave a reply