听得懂复杂指令?Google 要让机器人语言理解能力大幅升级

Google 母公司 Alphabet 最近在机器人与 AI 语言理解系统有了长足进展,结合两者试图做出一个可以理解自然语言指令的助手型机器人。

Alphabet 於 2019 年开始发展可以执行简单指令的居家机器人,这些工作包括拿饮料或简易的清洁等。这「Everyday Robots」计画仍在发展阶段的初期,机器人反应速度仍缓慢且会延迟,但近日 Google 将语言模型 PaLM ( the Pathways Language Model)与机器人做结合後,其将有更好的语言理解能力。

大部分机器人仅能回应简短且直白的指令,像「拿一瓶水给我,」但遇到复杂的指令时,机器人的反应即不一定能如此直观。TechCrunch 报导举例,当使用者向机器人下达「你有空的时候,可不可以拿瓶水给我?」的指令时,机器人需先判断「你有空时」只是一种句子的开头,还是使用者需要机器人先完成手边的作业,面对「可不可以拿水」机器人可能只会回应,它有这个能力去拿瓶水,却不加以执行这个动作。

而 Google 实验室正在研究如何让机器人理解指令背後的涵义,以及认知到自身能达成的事项。Google 将这个新机器人模型命名为 PaLM-SayCan,取名背後的原因是因为机器人若要达成一项指令,即必须理解使用者所说的(Say),以及需要具备能力做到指令的内容(Can)。

目前 Google 机器人能正确辨认出对 101 种使用者指令的回应,准确率达 84%,而实际回应行为的准确率达 74%。不过由於 Google 没有公开那 101 种指令,因此也无法得知机器人所接收到的指令,是否像我们日常使用的言语一样复杂。

这也是 Google 和其他居家机器人研发商所面临的一大挑战,日常生活的情境太多变,使用者将会想对机器人下达许多复杂的指令,像叫机器人去「炒酱汁里需要的洋葱,」这项指令背後涵盖了许多资讯,像洋葱在冰箱的位置,以及如何事先处理洋葱等,这些讯息皆需要机器人加以理解。…