复旦大学张奇:我们距离真正的通用人工智能还有很长的路

2024-10-23   上海证券报

0月23日,在由复旦大学管理学院、兴证全球基金和兴银理财联合举办的“复旦管院·兴动ESG大讲堂”上,复旦大学计算机科学技术学院教授、上海市智能信息处理重点实验室副主任张奇分享了他对大语言模型的能力边界与发展的思考。“尽管大语言模型在过去两年取得了显著进展,但其在实际应用中仍面临诸多挑战。”他说。

上证报中国证券网讯(记者 聂林浩)大语言模型一经问世便受到全世界的广泛关注,越来越多的应用场景也在逐渐落地。如今,大语言模型已发展到哪个程度?

10月23日,在由复旦大学管理学院、兴证全球基金和兴银理财联合举办的“复旦管院·兴动ESG大讲堂”上,复旦大学计算机科学技术学院教授、上海市智能信息处理重点实验室副主任张奇分享了他对大语言模型的能力边界与发展的思考。“尽管大语言模型在过去两年取得了显著进展,但其在实际应用中仍面临诸多挑战。”他说。

“2022年10月,大语言模型开始崭露头角,到了2023年,它们似乎无所不能,从替代医生到编写代码,再到完成复杂的任务。然而,当我们尝试用这些模型解决实际问题时,却发现与预期总是差那么一点距离。”张奇说,随着GPT-o1模型的问世,人们再次对其寄予厚望,然而经过测试,其呈现的结果仍然存在一定局限性。

“要理解大语言模型的潜力,首先需要回归到其基础理论。”张奇解释,以ChatGPT为例,其核心任务始终是生成一个“合理的延续”,即根据已有的文本,生成符合人类书写习惯的下一个合理内容。所谓“合理”,是指根据数十亿个网页、数字化书籍等人类撰写内容的统计规律,推测接下来可能出现的内容。

张奇表示,大语言模型的训练可分为三个阶段:第一阶段是知识的压缩和表示,第二阶段是赋予其能力和执行任务,第三阶段是与人类对齐,提升生成任务的能力。每个阶段均要经过精心的训练和设计,并需要大量的数据输入,使大模型记住相关领域的知识。

谈及当前大语言模型的能力边界,张奇表示,目前大语言模型在长上下文建模、多任务学习、跨语言迁移性及文本生成能力上已经有出色的表现,但它们是否真正理解内容并进行核心应用,仍然是一个问号。

“真正的AGI(通用人工智能)系统需要具备理解物理世界、拥有长久准确记忆、可以推理及分层次规划的能力。”他说,未来大语言模型的发展有两条路径,一是代替人类完成所有脑力劳动,具有自我学习、自我进化能力;二是专注于代替人类特定的任务。无论选择哪条路,都需要对模型的能力边界有清晰的认识。要实现真正的通用人工智能,还有很长的路要走。