奔跑吧,山羊!谷歌 DeepMind 的一款新的人工智能代理(AI Agent)学会了玩不同的游戏,包括它以前从未见过的游戏,比如山羊模拟器。这是一款有趣的动作游戏,具有夸张的物理效果。
研究人员能够让它按照文本指令玩七种不同的游戏,并在三种不同的 3D 研究环境中移动。
在过去,谷歌 DeepMind 在开发游戏AI系统方面取得了巨大成功。它开发的 AlphaGo 在 2016 年的围棋比赛中击败了顶级棋手李世石,是展示深度学习力量的一个重要里程碑。
但不同的是,早期的AI系统只能精通一种游戏,或者只能遵循单个目标或命令,而这种新的人工智能代理能够玩各种不同的游戏,包括英灵神殿和无人深空。它被称为 SIMA,是“可扩展、可指导、多世界代理”的缩写。
在训练AI系统时,游戏很适合用来模拟现实世界的任务。美国斯坦福大学计算机科学副教授迈克尔·伯恩斯坦(Michael Bernstein)表示:“原则上,相比在一个简单的环境中训练,一个普通的游戏代理能学习到更多关于如何探索我们的世界的知识。”他没有参与这项研究。
谷歌 DeepMind 的研究工程师提姆·哈雷(Tim Harley)是开发团队的一员,他说:“人类能想象,有一天,我们大家可以让 SIMA 这样的代理与你和你的朋友一起玩游戏,而不是让你对抗强度变态的电脑 NPC(Non-Player Character,非玩家角色)。”
谷歌 DeepMind 的研究工程师弗雷德里克·贝斯(Frederic Besse)说,该团队在训练 SIMA 的过程中使用了大量人类单独和协作玩电子游戏的例子,还有键盘和鼠标输入,以及玩家在游戏中所做行为的注释。
他们使用了一种名为模仿学习的人工智能技术,教智能代理像人类一样玩游戏。SIMA 能够实现 600 条基本指令,如“左转”“爬梯子”和“打开地图”,每一条指令都可以在大约 10 秒内完成。
研究小组发现,一个受过多种游戏训练的 SIMA 代理比一个只掌握了一种游戏的代理表现要好。
贝斯说,这是因为它能利用游戏之间相似的概念来学习更好的技能,更好地执行指令。
他说:“这是一个非常令人兴奋的重要属性,因为我们得到的代理可以玩从未见过的游戏。”
英国伦敦玛丽女王大学人工智能讲师保罗·劳伯(Paulo Rauber)表示,看到这种游戏之间的知识转移是人工智能研究的一个重要里程碑。
劳伯说,以人类提供的例子为基础并学习执行指令,这一基本思想可能会在未来产生更强大的系统,尤其是有了更大的数据集之后。他认为,SIMA 相对有限的数据集影响了它的性能。
负责英伟达人工智能代理项目的高级研究科学家 Jim Fan 表示,尽管 SIMA 训练的游戏环境数量仍然很少,但它正走在正确的扩大规模的路上。
但哈雷说,AI系统离人类的水平还有很大差距。例如,在无人深空游戏中,人工智能代理只能完成人类能完成的 60% 的任务。当研究人员禁止人类玩家向 SIMA 发出指令后,该代理的表现比之前差了很多。
贝斯说,团队接下来将努力提高代理的表现。研究人员希望它能在尽可能多的环境中工作,并学习新技能,他们盼望人们能与代理聊天并得到回应。
该团队还希望 SIMA 拥有更通用的技能,使其能够像人类一样快速上手从未见过的游戏。
贝斯说,人类“能够很快适应没见过的环境和情况。我们大家都希望我们的人工智能代理也一样。”
美国加州大学欧文分校助理教授罗伊·福克斯(Roy Fox)表示,SIMA 使我们离自主代理的“ChatGPT 时刻”更近了一步。
但这离真正的自主人工智能还有非常长的路要走。他说,那将是“一场完全不同的游戏”。
作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。