Google IO.Lens整合即时翻译功能 Search文字外更可呈现AR物件

撰文: 黄正轩
出版:更新:

Google I/O 2019开发者大会上,官方发表强大的AR(Augmented Reality 增强实境)新功能,力求即时、互动的崭新画面表达形式。简单而言,AR系统将配合手机镜头,于空间中以3D立体AR物件展示Google Search的搜索结果。Google Lens将整合Translate,用家以手机镜头扫瞄外文,可即时以AR覆盖层方式逐字翻译内容。

Google I/O 2019正式发表AR增强实境功能加持之Google Search及Translate!Google行政总裁Sundar Pichai​在I/O 2019大会台上表示,新功能背后概念是让用家使用智能手机的相机镜头,将搜索结果以视觉资讯的形式表现出来。AR版Search将结合使用电脑视觉和AR增强实境技术,将手机变成强大的搜寻工具,加强即时互动和多媒体呈现效果。

不妨睇睇下面可见Google官方短片示范。于Google Search搜寻大白鲨相关资料,当中有3D CG立体鲨鱼可动模型。在AR功能配合智能电话相机镜头支援底下,该可动模型更可变成AR物件,在家居草地上“浮现”:

AR做到的事情很多,特别是以虚拟3D立体模型呈现搜寻结果,让用家以另一方式来学习知识。例如有人于Google搜索“肌肉屈曲”相关内容,不久的将来便可以在搜索结果中查看3D肌肉模型,了解其运作机制;更可以手指滑动屏幕来移动模型、将之带入现实的物理环境(如书台)。如此操作全拜AR技术所赐。

Google I/O 2019展示另一个跟购物有关的AR应用例子。如果寻找New Balance波鞋,买家可以在手机上参看个别鞋款的3D立体模型​,将之旋转不同角度观察。甚至可以把模型以AR物件形式放在你的现实衣物旁作配搭​。第三方开发商可为其Google搜寻结果建立AR购物体验。最先使用此3D AR物件功能的商家除New Balance外,更有美国太空总署NASA、Target、Samsung、Visible Body、Volvo和Wayfair。​

配备机器学习(Machine Learning)和AI人工智能的Google Lens,也整合了Google Translate功能,变得更强大。Google Lens本可让用家以手机镜头扫瞄物件,再即时于Google搜寻出有关该物件的资料。现将加入以AR覆盖层方式即时翻译外语的功能。翻译形式有文本笔译,在萤幕上以AR层膜盖去原文;亦有语音口译,将翻译内容逐字读出,每读一字会将之Highlight显示。用家亦可逐字点击作Google Search搜寻,比对翻译字义和原文字义,似乎对学习外语有一定帮助。

点击放大图片:

+3

Google Lens也能协助拣选菜色。用家只需以Google Lens拍摄餐厅餐牌,系统便会自动标示出该食肆的热门菜色,还辅以菜色照片和曾到访的食客所撰食评,看看是否真的受欢迎。此功能让用家外游叫𩠌时有更多参考资料,减低“中伏”机会。再者,跟朋友出外食饭要夹钱,也可用Google Lens扫瞄单据,系统会自动显示分帐计数机,点算贴士和除开条数,方便用家计算每人需付金额。

点击放大图片:

+1

上述新功能,计划在本月月底陆续推出。最后,不妨看看新版Google Lens即时AR翻译功能的记者试用实测短片。

即睇Google I/O 2019 新版Google Lens即时AR翻译功能 记者试用实测短片: