观点摘录:
具身智能的出现,有可能会推翻莫拉维克悖论,其所对应的默会知识,可以通过训练数据的同步,瞬间让大量机器人掌握,这是具身智能最重要的优势,但在未来可能会对人类构成巨大的挑战,因此,具身智能之间的通讯需要由人类来掌握。
具身智能何时迎来自己的“DeepSeek时刻”,取决于涌现能力何时会呈现。团队正在进行一项研究,推导一个相关公式,这个公式有望计算出“DeepSeek时刻”何时到来。
发言内容:
我曾开设过一门名为《人工智能经济与伦理》的课程,其中有一个概念被反复提及,那就是莫拉维克悖论,复杂的问题,机器人容易干,而简单的问题,机器人干不了。今天看到具身智能的时候,我认为莫拉维克悖论或许可以推翻了。
我们把知识分为四大类:可表达,可感知,叫明知识;可表达,不可感知的量子力学,叫明知识二;可感知,不可表达,叫默会知识,具身智能就属于此类;还有一类叫暗知识,比如说围棋的棋谱。具身智能所对应的默会知识,常见于学习倒咖啡、扫地、弹钢琴、写书法等场景。过去,人类掌握这类知识几乎完全依赖师徒传授,它无法通过文献完整传递,必须靠师傅手把手指导。所以一个人会骑自行车,他的孩子不一定会。但是,当我教会一台机器人骑自行车,再将训练后的参数同步给成千上万台同类机器人,那所有接收到参数的机器人都能瞬间掌握这项技能。这就是具身智能最重要的优势,却也暗藏隐患,若这些机器人形成协同联动,未来可能对人类构成巨大的挑战。因此,我们此前在伦理层面提出,具身智能之间的通讯需要由人类来掌握。
具身智能领域会不会像大模型领域一样有基座模型,也有行业的垂类模型,目前我尚不敢下定论。现在看来在大模型领域,垂类模型是不成立的,随着GPT系列模型的迭代,绝大多数垂类模型已被淘汰,仅存的例外多是涉及保密数据。不过,具身智能领域或许会有所不同,当跟硬件相关时面临的就不再是纯算法问题,也许可以有基座模型,也可以有垂类模型,从生态的角度看,理论上是有可能成立的。
具身智能何时迎来“DeepSeek时刻”这是一个伪命题,更准确的表述应是具身智能的涌现能力何时会呈现?以GPT-3为例,它在参数规模达到1700亿时实现了模型泛化,那么具身智能的参数达到何种水平才能具备涌现能力?只有这一能力落地时,才可以认为迎来了属于具身智能自己的“DeepSeek时刻”。
我们团队在开展一项相关研究,把人工智能看作一个耗散结构,看它内部非线性到多大数值的时候,会出现一个相变,这个相变的出现就意味着能力的提升,目前我们正在推导相关计算公式。斯坦福做过一个神经交叉熵的研究,我们也在做这个研究。也许这个公式能推导出来时,会对大家有所帮助,可以算出来具身智能在什么时候可以迎来“DeepSeek时刻”。