斯坦福李飞飞、吴佳俊带队让《阿凡达》意念操控照进了现实!

现在,只需要动动脑子就能操纵机器人。

想吃寿喜锅不用自己动手,切菜备菜、倒入食材,机器人一气呵成:

这是一个通用的智能系统,使用者无需佩戴侵入设备,机器人可以从脑电信号中解码人类意图。

并且它还配有一个“技能库”,轻松应对高达20项日常任务。

要知道,常规脑机接口系统一般只专注于一项或几项任务。

哦买噶,游戏规则改变者!

哦买噶,赛*朋克!

20项任务轻松拿下

正如上文所说,这个机器人能干的事儿多着呢。

主打一个让机器人自动学习预测人类意图。

1)选择什么对象?

方法是在屏幕上显示任务场景,利用对象的闪烁产生SSVEP信号;每个对象以不同频率闪烁,人类注视某对象时,脑电信号中该频率成分增强。

然后用Canonical Correlation Analysis(CCA)方法,分析不同频率的相关,确定人类注视的对象。

2)如何交互?

这部分是通过提示人类想象执行某些技能(左手、右手等)产生运动意象信号,然后使用滤波和Common Spatial Pattern (CSP)算法预处理信号。

最后利用Quadratic Discriminant Analysis (QDA)进行4类识别,确定技能选择。

3)在哪交互?

人类想象控制光标的左右运动来选择技能执行的具体参数。同样通过CSP和QDA处理并解码脑电信号,判断人类是左还是右。

研究人员还设置了安全机制,采用肌肉紧张信号来确认或拒绝脑电信号解码结果,避免解码错误导致的风险。

这样一来,在给定一个新的任务时,机器人会在记忆中找到最相关的经验,并选择相应的技能和对象。

在之后的任务中,当机器人看到新的杯子图像时,提取图像的语义特征。

然后计算新图像的特征和之前记录的训练图像特征之间的相似度,找出最相似的一个点,作为它预测的抓取位置。

机器人只需要人类示范一次参数选择,就可以在未来自己预测参数,

除了李飞飞教授、吴佳俊教授带队,论文共同一作有四位,分别是:

主要研究方向为机器人技术、人机交互、脑机接口、认知科学和神经科学。

斯坦福大学研究生,本科**于伊利诺伊大学香槟分校。

本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。