辛顿的发言无疑代表对于大模型褒的一面,在去年一次与外媒的采访中,他便表示AI将会在最终操控人类。当他在2022年看到Google开发的大语言模型PaLM的聊天机器人能够解释笑话的时候,他认为这是AI能够理解人类语言的重要时刻,并逐渐开始意识到AI有可能威胁人类,未来拥有超越人类智慧的AI将可以用语言操控人类,试图说服不要关掉电源的开关。
如同人类在劝说操控一个3岁的孩子,“有个人,把老虎当宠物,那老虎也可以当小虎崽,是很可爱的宠物。但是,如果一直养这个宠物,那么你要确保它长大的时候,它不会把你给杀掉。”给出这段发言的辛顿似乎在复述“养虎为患”的成语故事。
而辛顿的好朋友,与他一起获得图灵奖的杨立昆,却代表了对于大模型贬的一面。在他的观点中,人工智能更像是一个小镇做题家般的书呆子,对于世界的理解局限于大量的现有资料内容,但人类的知识理解涉及对世界的感知、经验、情感以及更深层次的直觉和常识,这是很多文本难以触及的层面。有人这样形容:“GPT 虽然‘读遍’了互联网,但它从未喝过一口红酒、摔过一只杯子,从未亲身体验过任何事情。”但对于一个可能还坐不稳的婴儿来说,便已经能够通过以不断向地面抛出物体的方式,感知了解地心引力所带来的物理特性。
于是,杨立昆开始越来越提及AMI(先进机器智能)一词,可以学习抽象概念,并据此进行逻辑推理、制定计划的AI系统。如同人类全神贯注于一件事时, AI 模型不应该仅仅依赖像素级重建误差,而是要具备多层次抽象表征能力。好比人类的大脑并非逐像素、逐帧地处理世界,而是依赖抽象层次的表征与结构化信息。