谷歌旗下基于人工智能的分析工具Google Lens目前已经能识别超过10亿件物品了,而识对目录是谷歌的零售和价格对比门户网站Google Shopping。这一数字是在其于2017年10月发布时能够识别的物品数量的四倍。
谷歌Google Lens和增强现实副总裁Aparna Chennapragada,在一个关于Google Lens里程碑的回顾性博客帖子中,披露了这一小花絮。
她写道:“过去10年的时间,我一直在带领团队,通过Search、Assistant和现在的Google Lens,开发利用人工智能来帮助构建人们日常生活中的各种产品。醒着的时候,我们依靠视觉来感知周围的环境,记住各种信息,探索我们周围的世界……我看到摄像机为信息发现和帮助开启了一系列全新的机会。”
在这里,产品是指产品标签。Google Lens利用了光学字符识别引擎——结合能够识别不同字符、语言和字体的人工智能系统,再加上从Google Search借来的语言和拼写纠正模型——来将条形码、二维码、ISBN编号和其他字母数字标识符与Shopping巨大的目录中的产品清单相匹配。
Chennapragada解释说:“现在,用文字表达不同的语言风格变得越来越困难了。这就是为什么我们认为相机——一种视觉输入——可以在这方面发挥强大作用……Lens可以向你展示有用的信息,比如产品评论。”
当然,这并不是Google Lens的计算机视觉算法所能识别的所有东西。
这个不断增长的名单包括家具、服装、书籍、电影、音乐专辑、电子游戏、地标、名胜、著名建筑、Wi-Fi网络名称和密码、鲜花、宠物、饮料、名人等等。Lens会阅读并提示你根据菜单和标识上的文字采取行动,当你对着衣服或家居装饰时,它会推荐风格相似的商品。此外,也许最有用的是,它可以自动从名片中提取电话号码、日期和地址,并将其添加到联系人列表中。
Google Lens在过去的一年里发生了巨大的变化。根据Chennapragada的说法,通过谷歌的开源TensorFlow机器学习框架对标签图像进行训练的Lens,正开始更可靠地识别物体,而这要归功于“看起来像是用智能手机摄像头拍的”数据集图片。
它也在以更明显的方式改进。
早在今年5月的I/O主题演讲上,谷歌就揭开了Lens实时分析模式的面纱,该模式将识别点叠加在了实时摄像机反馈中的可操作元素上——这一功能首先在Pixel 3和3xl上推出。最近,Lens开始为用户提供图像搜索。而更近一点的时间,谷歌由通过Google app将Lens引入了iOS,并在Android和iOS上进行了重新设计。
至于Lens的未来,Chennapragada在由人工智能驱动的增强上押下了重注。
“展望未来,我相信我们正在进入一个计算的新阶段:相机时代,如果你愿意这么说的话,”她写道。“这一切都是同时发生的——人工智能和机器学习方面的惊人进步;由于移动电话不断扩大的规模,更便宜、更强大的硬件;数以十亿计的人用他们的相机来记录生活中的大大小小的瞬间。