从底层算法来说,ChatGPT或者单纯的大模型不可能变成强人工智能,因为他们的设计目的是在形成对人类最好的模仿,在人类的指导下形成对人类最好的模仿。但是我觉得人类目前可以逐渐控制几十亿上百亿甚至于上千亿参数的模型,其实是在想强人工智能在靠近的,因为算力的支持是AGI必不可少的。我觉得其实现在的计算机或者AI课上很少有老师具体聊AGI应该拥有的特质,我想提一下我自己的看法抛砖引玉一下。
首先AGI必须拥有的能力是:Human interaction, reasoning, planning, and learning。我想从这四个方向上简短聊一下。
- Human Interactions:不得不说,在这个方面ChatGPT还有GPT-4已经在这个方面做到炉火纯青了。GPT系列在这个方向已经做到了可以跟人类多模态交流。图像文字都不在话下,语音已经是一个成熟的技术了,我相信能够生成视频进行交流也就是个时间问题。所以其实可以说,ChatGPT在我们向AGI方向上迈出了长足的一步。
- Reasoning:在reasoning和casual understanding方向上,虽然看一来ChatGPT已经做到不错了,但是如果细究,ChatGPT很大程度上还是在模仿。我在这引用一下Vincent Conitzer的一个prompt。ChatGPT的整体语言是没有严格的逻辑体系的,更多是个模糊系统或者一个interpolation的结果。
一道给ChatGPT的逻辑题
- Planning:在planning这个方向上我的一向理解是,目前的ChatGPT是不可能拥有planning能力的,因为Agent既没有在预测人类未来会说什么,也没有在training的时候用任何的planning算法。很多人在说的RLHF其实并不是planning算法,充其量是一个constrained environment的bandit learning。详细情况可以看我之前的帖子和我在帖子上的附加评论:
如何评价 OpenAI 的超级对话模型 ChatGPT ?
- Learning:很多同学会说这个方面ChatGPT应该已经做的很好了,但是我觉得不然,原因是因为数据量的需求。人类在学习复杂知识或者学会如何完成一个任务所需要的数据量是很小的,即便需要练习,但是做到可以完成60分的情况,往往只需要几次或者十几次的尝试。这说明其实ChatGPT的sample efficiency仍然是比较差的,这个方面其实跟Planning是相关的,复杂情况下多数是多步决策,所以需要一些更好的技巧来获得知识。
不得不说,ChatGPT已经为我们向AGI进军做出了很大的贡献,但是距离真正的AGI还有很长的路要走。 |