考那么多试,拿那么高分,大模型们真的懂语言了吗?( 三 )


在我看来 , 问题的关键在于 , 理解语言就需要理解世界 , 而只接触语言的机器就无法获取这种理解能力 。 举个例子 , 「跑车超过了邮车 , 因为它开得慢一些」 , 理解这句话需要什么前提?首先 , 你要知道跑车和邮车分别是什么、车是可以互相「超过」的 , 甚至你还要知道更基本的常识:交通工具是存在于这个世界并与之交互的对象 , 由人类根据自己的行程驱动 。
以上这些都是我们人类认为理所当然的知识 , 但这些知识并没有内嵌在机器中 , 也不可能被明确地写在任何语言模型的训练文本中 。 一些认知科学家认为 , 在学习和理解语言方面 , 人类依赖于先天的、前语言的关于时空以及世界上其他基本属性的核心知识 。 如果我们想让机器像人类一样掌握语言 , 我们首先需要赋予它们人类与生俱来的原始原则(primordial principle) 。 要评估机器的理解能力 , 我们应该首先评估它们对上述原则的掌握程度 , 有人将其称为「婴儿形而上学(infant metaphysics)」 。
与 GPT-3 等成就辉煌的 AI 系统相比 , 训练并评估一个婴儿水平的机器看起来似乎倒退了一大步 。 但如果目标是真实可信的理解 , 那这可能是唯一一条让机器理解「它」是什么以及获取理解「它」所需要的一切的途径 。
原文链接:https://www.quantamagazine.org/what-does-it-mean-for-ai-to-understand-20211216/

特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。