3月24日消息,谷歌发言人亚历克斯・约瑟夫在给The Verge的电子邮件中证实,谷歌已开始向Gemini Live推出新的人工智能功能。这些功能使其能够“看到”你的屏幕内容,或者通过你的智能手机摄像头获取画面,并实时回答与之相关的问题。
这一新功能的推出,是在谷歌首次展示为其提供技术支持的“阿斯特拉项目”(Project Astra)近一年后实现的。去年5月,在2024年I/O开发者大会上,谷歌展示了基于Gemini的全新Project Astra项目,该项目可以本地运行在Pixel手机上,被视为对标OpenAIGPT-4o的最新模型。
谷歌表示,Project Astra是其最新的多模态AI项目。用户打开摄像头后,该多模态项目能够直接解释用户画面中的物品。这意味着用户可以通过摄像头实时捕捉画面,并向AI提出相关问题,从而获得即时的回答和帮助。
这一创新功能的推出,不仅展示了谷歌在人工智能技术上的持续进步,也为用户提供了更加便捷和直观的交互方式。通过结合视觉和语言理解,谷歌正在重新定义我们与技术互动的方式,为未来的智能生活带来更多的可能性。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...