【转】如果要像钢铁侠那样看世界,谷歌眼镜远不够!还有这些技术问题需要解决

如果要像钢铁侠那样看世界,谷歌眼镜远不够!还有这些技术问题需要解决

本文节选自科学美国人网站,原题为《智能眼镜和其他可穿戴计算设备什么时候会成为主流?》,由虎嗅编译:
 
最近几个月,谷歌不知疲倦地推广他们的可穿戴智能眼镜产品,引发了我们的集体想象。借助于一段段视频、现场秀和博客文章,搜索巨人谷歌将自己的智能眼镜产品成功定位成一部无需双手操控的增强现实装备,能够让我们实时分享个人体验,无论是在跳伞或者滑雪时都可以。
 
不出所料,市场上出现了一批竞争对手的产品,号称也可以实现许多同样的功能。在现实增强功能眼镜成为主流产品之前,谷歌和相关厂商需要弥补和智能眼镜技术有关的一些基本缺陷,包括笨重的外形设计、过高的价格以及应用软件的缺乏,后者才是让智能眼镜与头戴摄像头电话产生区别的关键。
 
“谷歌的设计目标应该是一个视线可以透过的镜头画面,能够让使用者直视前方,而不是像现在这样在侧面放一个小屏幕。”贾斯汀・拉特纳(Justin Ratter)这样说。他正在和英特尔的同事一起研发未来的计算技术。贾斯汀是Intel Labs总监,公司首席技术官。
 
《科学美国人》采访了贾斯汀,探讨了为什么人们如此关注智能眼镜产品,这种产品应该如何改进。
 
---------------------------------------------------------------
 
Q:可穿戴设备已经面世几十年的时间了,其中就包括工厂工人手指佩戴的环形扫描器(ring scanner),用来读取条形码,当然还包括能够实现增强现实效果的头戴设备。为什么人们如此关注这项技术?
 
A:感应技术、通讯技术和计算机技术已经发展到了这样一个阶段,史无前例地第一次有机会实现可穿戴计算设备在消费者当中大规模普及。这是一个新的局面。如今你基本上能够把智能手机所有的东西做到智能眼镜里面,尽管会稍微有点沉。这种潜在的可能为我们制造了一个很有趣的通讯平台。
 
Q:为什么你说“潜在的”?
 
A:我们认为智能眼镜面临一个非常大的挑战。那就是目前尚未有人实现高性能的视线穿透(see-through)显示效果。目前你在谷歌眼镜和其他相关产品中见到的这种侧面屏幕(side-view)显示技术,从某种意义上说,恰恰验证了一个事实:目前还没有人解决透明显示的技术问题,尽管有相当多数量的科研人员在进行这项工作。
 
(这种高性能的视线穿透显示技术将会有)一个针对双眼的光学成像引擎,可以在镜头上投射画面。这种成像方式可以让虚拟图像保持在你的面前,无论使用者在扭头或者是在凝视。形成的画面始终保持完美的叠加状态,你的视线可以穿过投射形成的画面。如果你在纽约漫步时使用增强现实功能,可以看到“帝国大厦”或者“自由女神”的字样就漂浮在这些真实场景的旁边。
 
目前有几家公司,比如Lumus就是其中一个,他们已经掌握此类技术很久了,但是在增强现实技术上,要么还处于开发状态,要么是出于研究的目的被转让。总体来说,实现视线穿透显示技术需要的设备体积太大、太笨重,效果也不好,不适合推向市场。在室内应用还可以,但如果走在外面的话,虚拟画面就完全被抹掉了。
 
Q:为了让头戴计算设备产品成为主流,谷歌和其他生产这些设备的公司必须要做哪些事情?
 
A:他们需要提供一种交互界面,可以让人们很自然地移动,做出交互操作。这种使用侧面屏幕的做法,就像你在谷歌眼镜上看到的,基本上是承认了他们不知道怎样做出《终结者》电影里的那种真正增强现实效果——也就是在真实物理世界里,佩戴设备的人能够看到有标注的对象或者是流媒体数据。这一点才是所有人想尽快看到的。
 
按他们的这种设计方式,谷歌眼镜完全不适合游戏或者看电影。但是如果你能真正做到把高质量的画面、游戏或者视频画面投射在正常的视野范围内,并且随着头部位置的改变及时做出反应,那么临场传输(telepresence)会变得非常惊艳,因为对用户的大脑来说,基本上他就沉浸在那个空间里了。
 
Q:工程师们距离实现《终结者》影片中的那种效果还有多远?
 
A:有一些设备已经可以实现30、40度视觉范围的效果了,但如果是说让消费者感兴趣,需要有大约60、70度甚至更多的视觉范围才行。没人希望这东西像个小盒子一样停留在视觉正中的位置。很快就会让人觉得很烦。
 
Q:什么时候增强现实技术会成为人体的一部分?
 
A:我们位于大学的一个实验室实际上就做了一些这方面的工作,是一个可移植的神经交互界面芯片(和大脑通讯),通过无线的方式供电。能够植入到皮下,从此就不必再拿出来,因为电源来自位于皮肤上的小型感应线圈。这些零件大概一英寸左右,一开始就是以超低能耗为目标设计的。但这种前沿的技术产品是有些过于苛求了。
 
Q:除了要实现可穿戴设备需要的现实技术,是否还有其他的挑战?
 
A:有其他的问题存在,特别是当人们想把虚拟世界和真实世界相融合的时候。基本上这是一个潜在的问题。你在电脑和电视屏幕上看到的画面变化是通过不断输送信号完成的(有连续不断的画面信号传输到屏幕上)。但是如果你的观看角度改变了会发生什么情况呢?好比说你戴着(增强现实)头戴设备那样。这个时候你必须要把之前角度画面的信号管道停掉,从新的角度开始输送画面信号。如果整个过程完成的不够快,那么会造成“抖动(jutter)”的效果。有时候当摄像机移动过快的时候,你可以在电影或者电视上看到——屏幕上的画面看上去一停一顿,图像位置在显示正确之前有一系列的延迟跳跃。
 
所以不仅要有新的显示技术,还要发明新的图像架构,避免这个潜在的问题。比如说,如果我在看一个人,我就会搜集视线内物体的数据信息。当我扭头去看其他人或物体的时候,所有关于刚才那个人的数据就都消失了,我会在收集有关新画面的数据。一个解决办法是在设备探测到使用者扭头的时候把关闭当前画面的显示,在新的视线角度形成之后再恢复。问题是我们会经常转动头部,用户不得不去忍受这样一种显示模式。否则他们很快就会感到不舒服。
 
但愿再过不到十年我们会发明某种图像架构的解决方案,避免抖动的问题。从某种意义上说,我认为其他电子设备几乎已经不重要了。为这样一种头戴设备设计智能手机功能的眼镜计算系统真的没什么困难的。全都在我们现在的技术可行范围内。
 
人们会争执,讨论谷歌的产品是否有消费者市场。我认为距离人们真正、真正想要的还有很大差距。
 
Q:目前有什么可穿戴系统做到了这一点呢?
 
A:我们比较欣赏的一个是Looxcie,它是一种在视频摄像头上的小型芯片。持续录制生活场景这种想法是非常有意思的。这是一种纪录每日生活的方式。
 
但人们真正需要的是出色的面部识别技术,这样在你参加鸡尾酒会或者走进一家酒吧的时候,耳边会响起,“嘿,那是鲍博・琼斯,你的高中好友。”你就可以直接走过去打招呼,“哦,鲍博,最近怎么样?见到你真好。”我敢保证大概一周里你能销售一百万这样的设备。
 
Q:便携增强现实系统有哪些其他的用途?
 
A:人们开始思考将增强现实用在生物传感器上面,比如Tricorder XPRIZE就是这个方向。尽管每个人听到“tricorder”都会感到兴奋(该设备来自《星际迷航》,影片中的角色用这个设备诊断病人),他们也能用(安装了增强现实应用程序的)智能手机这样的设备通过自己的衣服来获得重要的健康迹象数据。而不需要去对着别人挥舞什么魔法棒,以此来判断哪里出现了问题。我们的《星际迷航》连体服应该可以实时(向我们的手机)汇报信息。
 
原文地址:https://www.cnblogs.com/ppffs/p/3063598.html