“无触摸”技术,让鼠标和键盘消失?
- 发布人:管理员
- 发布时间:2014-03-06
- 浏览量:407
【字体: 大 中 小 】
还记得上生物课时解剖小动物的情景吗?不少学生会因为胆小或不忍心而难以下手。但如果有了这个名为“跳跃运动”(Leap Motion)的装置,学生们无需解剖就可以了解小动物的身体结构了。
把一款名为“解剖青蛙”的程序下载到电脑中,将“跳跃运动”装置与电脑连接,对着屏幕上的青蛙做出“解剖”动作,就可以看到青蛙各个器官的三维图像,仿佛打开一只真实青蛙的身体。
利用“跳跃运动”,你还可以“摆弄”人的头颅——旋转头颅,拆下组成它的每一块骨骼,再把它们装回去——从而了解它们的名称,对它们的形状和位置有直观的感受。
“跳跃运动”能让人身临其境地在电脑上操作,在于它使用了“无触摸”技术,人们不用移动鼠标,不用触摸屏幕就能控制电脑。有人预言,“无触摸”技术将开启一个人机交流的新时代,大大改变人们的生活。
以手势为基础的人机交流
跳跃运动公司的创建人之一戴维·霍尔兹曾经觉得电脑是他探索各种未知的好帮手,然而中学时碰到的一件事让他对电脑的作用产生了疑问。
当时他用一种软件来制作设想的3D模型,费了很大劲儿才成功。他说:“我用泥捏出这个模型只需几分钟时间,用电脑做这个模型却可能要花5个小时。于是我问自己,问题出在什么地方?为什么使用技术的效果反而要差?”
思考一番后,他得出结论:“电脑足够强大,我也知道我想做成什么样,所以问题不是出在我(用电脑)上,而是出在输入系统上。”从那时起,他就开始琢磨建立一种以手势为基础的人机交流方式,直到开发出“跳跃运动”。
“跳跃运动”自近期发售以来备受追捧。这个外形小巧、酷似U盘的设备内含传感器,能感应到手指0.01毫米的移动。它通过USB接口与 电脑相连,由软件将捕捉到的动作信息转化为三维动作。
霍尔兹在一个题为“正在消失的用户界面”的报告中如此阐述了自己的理念:“我应该能进入到我的电脑中,而无需知道计算机语言。我应该能凭直觉操作电脑,让技术懂我。”
一些人将“跳跃运动”形容为高技术电影中那些在空中控制屏幕、阅读信息的幻想的原型,并对这款产品充满期待。“跳跃运动”的开发团队则认为,这种技术不仅会与现在的电子设备相结合,还能应用到汽车等设备的设计和制造中去。
捕捉动作,不仅仅应用于游戏
在史蒂文·斯皮尔伯格导演的科幻片《少数派报告》中,汤姆·克鲁斯饰演的男主角戴了一副黑色的带无线发射功能的手套,他像乐队指挥那样抬起双手,对面有整面墙那么大的显示屏随即亮起。之后,他打出不同手势,遥控屏幕执行了播放、暂停或放大视频等动作。
这部2002年上映的影片对2054年的人类生活的幻想,在某种程度上已成为现实。
近年来,不少IT精英和企业都在尝试开发“无触摸”技术,《少数派报告》的科技顾问约翰·昂德科夫勒就是其中之一。他成立了一家名为长方形工业的公司,所开发的“无触摸”技术已非常接近影片中所展现的,不过遥控工具不是手套,而是一个三角形遥控棒。
日本东芝公司2008年推出的笔记本电脑Qosmio G55以手势控制为卖点。它可以通过摄像头识别一些手势并将其转换为操作指令。使用者将手握成拳头,可以移动光标;大拇指向下按,可以点击光标。对着屏幕竖起手掌,可以播放视频;再竖起手掌,可以让视频暂停。东芝公司产品经理马克·拉基说,“无触摸”技术在有些情形下特别有用,比如有些人想看着烹饪视 频学做饭,而沾上油、水或面粉的手会弄脏鼠标或显示屏,这时手势控制就会派上用场。
微软公司2010年6月发布的配合Xbox 360家用视频游戏机使用的外部设备Kinect,可利用三维摄像头准确捕捉玩家的动作,让玩家摆脱控制器,直接融入游戏进程。比如,玩家抬脚做出踢球动作,屏幕上的足球随之飞起;伸出双手,则会把球拦在门外。日本任天堂公司推出的Wii、索尼公司推出的PlayStation Move同样利用“无触摸”技术丰富了电脑游戏的体验。
Kinect等设备为游戏而生,但如果只用它们来玩游戏就未免可惜了。英国伦敦圣托马斯医院的汤姆·卡雷尔医生就在一次植入覆膜支架,修复主动脉的手术中使用了Kinect技术,并对其大加赞赏。
手术台侧上方悬挂着显示器,上面显示着患者受损主动脉的三维图像。显示器下方安装了Kinect设备,可捕捉卡雷尔的动作。当然,这里的Kinect设备专为实施血管手术开发,有别于游戏机使用的Kinect。
卡雷尔面对显示器站立,抬起双臂。他用展开、放大、缩小、转动等手势控制屏幕上的图像以相应方式呈现。接着,他用手势在图像上作出记号,标明了要植入覆膜支架的准确位置,然后对照屏幕图像实施了手术。
卡雷尔医生告诉英国广播公司记者:“以前我在手术室里总是要指挥其他人上下左右地移动图像,有了Kinect,我可以迅速找到我要的位置,而不用在手术过程中操作鼠标、键盘等非消毒物品。”
英国血管修复术学会主席约翰·布伦南认为,10年或15年之后,手术室中应用“无触摸”技术将司空见惯。
用眼睛和意念来控制电脑
除了借助手势实现人机交流,人们还正在尝试用眼睛甚至用大脑活动来控制电脑。
拓比、LC技术和眼睛反应技术等企业开发的技术能让电脑精确测定使用者的视线位置,让使用者通过“看”来操作电脑。这种技术不仅可以给残疾人带来方便,还可以应用于电脑游戏、医疗诊断、安全驾驶等领域。
OCZ技术、神念科技、Emotive等企业则正在研制带脑电波感应器的头戴装置,试图用这种装置代替鼠标,在人脑和电脑之间架起桥梁。
2011年4月12日,美国人凯茜曾亲身体验到这种技术的力量。15年前,凯茜因中风丧失了四肢运动和语言能力,但这一天,她凭意念指挥机械臂拿起了一瓶咖啡,喂她喝,然后把瓶子放回到桌上。
凯茜能把“心动”化为“行动”,全靠大脑研究专家把一个阿司匹林药片大小、含96个微小电极的装置植入她的大脑运动皮层一个与大脑自主活动相关的部位。这些电极能模仿个体神经元感知大脑要做的事,然后“告诉”电脑,由电脑指挥机械臂执行大脑指令。
离真正的人机交互还差得很远
“无触摸”技术前景虽好,但也存在许多明显缺陷,目前尚难获得广泛认可。
美国斯坦福大学的马努·库马尔发现,在有些情况下,用视线控制电脑比用鼠标控制快14%,然而前者的出错率是后者的2.5倍。而且,用视线或大脑来控制电脑技术复杂,设备昂贵,难以走入日常生活。
用手势来控制电脑的各种设备虽然价格适中,但它们各自擅长某一种技术,应用范围有限,比如,微软公司开发的Kinect适合站着玩游戏,而售价80美元的“跳跃运动”只能在屏幕前的一小片区域捕捉手势。另外,不少手势控制设备需要双手悬空操作,容易导致疲劳。
因此不少业内人士认为,手势控制技术目前提供的更多的是一种人机交互概念,离实现真正的人机交互还差得很远,人们一时半会儿还离不开键盘、鼠标和触摸屏。
(来源:《环球》杂志第18期)