听得懂复杂指令?Google 要让机器人语言理解能力大幅升级

Google 母公司 Alphabet 最近在机器人与 AI 语言理解系统有了长足进展,结合两者试图做出一个可以理解自然语言指令的助手型机器人。

Alphabet 於 2019 年开始发展可以执行简单指令的居家机器人,这些工作包括拿饮料或简易的清洁等。这「Everyday Robots」计画仍在发展阶段的初期,机器人反应速度仍缓慢且会延迟,但近日 Google 将语言模型 PaLM ( the Pathways Language Model)与机器人做结合後,其将有更好的语言理解能力。

大部分机器人仅能回应简短且直白的指令,像「拿一瓶水给我,」但遇到复杂的指令时,机器人的反应即不一定能如此直观。TechCrunch 报导举例,当使用者向机器人下达「你有空的时候,可不可以拿瓶水给我?」的指令时,机器人需先判断「你有空时」只是一种句子的开头,还是使用者需要机器人先完成手边的作业,面对「可不可以拿水」机器人可能只会回应,它有这个能力去拿瓶水,却不加以执行这个动作。

而 Google 实验室正在研究如何让机器人理解指令背後的涵义,以及认知到自身能达成的事项。Google 将这个新机器人模型命名为 PaLM-SayCan,取名背後的原因是因为机器人若要达成一项指令,即必须理解使用者所说的(Say),以及需要具备能力做到指令的内容(Can)。

目前 Google 机器人能正确辨认出对 101 种使用者指令的回应,准确率达 84%,而实际回应行为的准确率达 74%。不过由於 Google 没有公开那 101 种指令,因此也无法得知机器人所接收到的指令,是否像我们日常使用的言语一样复杂。

这也是 Google 和其他居家机器人研发商所面临的一大挑战,日常生活的情境太多变,使用者将会想对机器人下达许多复杂的指令,像叫机器人去「炒酱汁里需要的洋葱,」这项指令背後涵盖了许多资讯,像洋葱在冰箱的位置,以及如何事先处理洋葱等,这些讯息皆需要机器人加以理解。

随着 AI 的功能愈来愈多元,市面上也出现许多新种类机器人,但机器人能达成的事项仍有限制,因此目前最常见的居家机器人只以扫地机器人为主,Google 结合了语言理解的机器人虽然是居家机器人发展的一大跃进,但距离一个可以完整理解并达成所有指令的机器人,仍有很长一段路要走。

核稿编辑:Chris

INSIDE 未来日完整一天丰富论坛,完全掌握数位转型最新脉动

  • 活动报名:Taketla拿票趣购票(现场票及直播票同步贩售中)、Accupass购票(仅贩售现场票)
  • 更多 INSIDE 趋势论坛最新消息,请前往活动网页
  • 更多数位转型相关文章

活动资讯:

  • 活动名称:【2022 INSIDE未来日】台湾的蜕变|用数位转型打造产业护城河
  • 活动时间:2022 / 09 / 23 (五)  09:00 – 16:40(08:30 开放入场报到)
  • 活动地点:微风南山 3F 艺文中心(110 台北市信义区松仁路 100 号 3 楼)
  • 活动形式:可选择线下论坛见面互动、亦可购买线上直播票。
  • 更安排 Q&A 及自由交流时间,藉此创造与会嘉宾间更多合作和深度参与的机会。

国内怎么安装surfshark

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x