这一天终于还是到来了。
甚至还能快速摸清楚“播放音乐”的播放器网站和按钮,给自己来一段music:
是不是有点细思*恐了?
这是一个MIT本科生小哥整出来的新活,

只需要几个简单的工具,用浏览器上网发帖、买东西甚至是玩游戏。

来看看这是怎么做到的。

本质上是一个基于Web浏览器的AI多模态助手(Chromium Copilot)。
它可以像人类一样用鼠标、键盘和屏幕“查看”网页界面,并通过网页中的交互按键进行下一步操作。
要实现这种效果,还用到了三个工具。
一个是UI界面,
这样,用户来决定是否要继续让它操作。

这个工具可以将图片关键细节拆分成不同的部分,并进行编号,
对于网页端也是如此,并进行交互。

最后,还需要用到一个自动标注器( DOM auto-labeler),可以将网页端所有能交互的按键标注出来,
一套流程下来,还能准确找到交互按键,并学会“自动上网”。

这是个大项目,目前还只实现了部分功能,包括点击、打字交互、自动标注等。
接下来,还有其他的一些功能要实现,例如试试AI打标器(目前网页端的交互还是通过通过接口得知哪里能交互,不是AI识别的)、以及提示用户输入详细信息等。
例如,然后出现交互bug。
又例如,目前这种玩法可能会违反OpenAI的产品使用规定:
除非API允许,
所以用的时候也要低调一点(doge)
这个项目在网上发出后,吸引了不少人的围观。
就发现了这个项目:
出的工作!
还有网友提到,甚至可以用来让AI自己读取验证码。

与此同时,也有网友已经在想象桌面流自动化(desk*** auto**tion)的操作了。
AI自动标注器应该能实现这个,
有没有其他的实现方法?
目前还没有,但确实可能会尝试Fuyu-8B或者LLaVAR这样的开源模型。
可以期待一波了。

本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。
用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。





发表评论