科学认知才能理性应对大模型挑战 | 社会科学报

2023-08-11     社会科学报

原标题:科学认知才能理性应对大模型挑战 | 社会科学报

科学认知才能理性应对大模型挑战 | 社会科学报

数字化

在资本框架下,不是让“自然力”而是让劳动者个人及其出卖的“智力”服从于AI机器所代表的“社会智力”,而这只是因为这种“社会智力”被非劳动者个人所垄断和支配,由此,人类内部的个人与个人之间的矛盾将不断加剧,其不断累积和最终爆发,的确有可能毁灭社会进而人类物种本身——这才是大模型尤其AGI的“失控点”或“危险点”所在,而对AI的非科学认知,如对超级机器人的科学幻想等,则会误导这方面的认知。

原文 :《科学认知才能理性应对大模型挑战》

作者 |中国社会科学院大学文学研究院研究员 刘方喜

图片 |网络

ChatGPT把人工智能(Artificial Intelligence,简称AI)发展史带入了“大模型”时代,也使全球大众真切感受到“AI时代”的来临。现在国内外相关研发,都被称作“类ChatGPT”研究,可见其“范式”转型意义。但是,大模型之大能力、大影响同时也意味着大风险,马斯克等签名的暂停大模型研究的公开信、辛顿退出谷歌、奥特曼接受美国国会质询等极具爆炸性的新闻,把这种大风险带入了全球大众关注视野。理性的应对需要科学的认知,而有关AI大模型的认知状况总体上不容乐观。

AI能力的强大性与可控性大致成反比

大模型研发界提出的内部应对风险的“对齐”概念具有方法论意义,而笔者从奥特曼接受美国国会质询新闻获得的大致印象是“鸡同鸭讲”,即人类内部的价值观非常“不对齐”,这与大模型跟人类价值观的不对齐,至少应该受到同等关注;而这首先需要跟AI一线研发者“对齐”,尽管同时也要对他们的价值观进行反思。笔者参加了中国人工智能学会主办的“2023全球人工智能技术大会”之分论坛“第六届全球视野下的人工智能伦理论坛”的活动,论坛对大模型的风险做了多方面探讨;同时,“风险”“安全”“伦理”“治理”等字眼也出现在此次大会其他分论坛议题中,可见研发界对大模型风险的广泛关注。2023北京智源大会同期举行,深度学习三巨头中的辛顿、立昆和OpenAI联合创始人奥特曼发表演讲,进一步阐发了对大模型的各自研判。立昆一如既往地对大模型的能力不买账,认为要实现AGI(Artificial General Intelligence),需另寻他途。奥特曼的研判其实与立昆非常接近,也不认为现在他们发布的ChatGPT是AGI或超级AI。辛顿的研判略有不同,大致认为现有大模型加以改进可以实现AGI。

笔者注意到:对大模型能力强弱的判断,其实决定着一个人对大模型风险大小的判断。这方面的代表是立昆,大致认为现有大模型的能力没那么强大,不可能失控,未来研发出的与人甚至动物大脑接近的“世界模型”,才可能出现失控风险。奥特曼的研判与立昆大致接近,认为他们现在发布的GPT4通过“对齐”等技术手段可在内部控制相关风险,还不需要政府等外部力量过度监管,但未来的超级AI需要监管。辛顿则认为现在的大模型已具超强能力,已有失控风险,未来发展将进一步加剧这种风险。Google DeepMind,OpenAI等最近联合发布的题为《应对极端风险的模型评估》(Model Evaluation for Extreme Risks)文章指出:“为了负责任地推动人工智能前沿研究的进一步发展,我们必须尽早识别人工智能系统中的新能力和新风险”;“一个经验法则:如果一个人工智能系统具有足以造成极端伤害的能力特征,假设它被滥用或无法对齐,那么人工智能社区应将其视为‘高度危险’”——AI的“能力”越强大,技术滥用的危害性越大,“无法对齐”或对齐失败的可能性越大,或者两者兼而有之,AI能力的强大性与可控性大致成反比例关系。

笔者认为,还可以把有关大模型的“能力”的讨论进一步细化,大致可以梳理出与AI的“可控性”成反比例关系的三种相互联系的因素。一是,AI能力的“强大性”与可控性成反比例关系,辛顿大致就是因大模型能力的强大而产生担忧的。二是,AI能力的“通用性”、应用场景的开放性与可控性成反比例关系,通用性越强、应用场景越开放,失控的可能性越大。大模型获得能力“通用性”的关键首先就在“自然语言”,而第一代AI符号主义路径因使用的是“人工语言”而缺乏通用性;获得能力通用性的另一个要素是“多模态”。而AI能力通用性增强,也是风险增加的因素之一。三是,无监督的自主性、能力提升的自动性以及不可解释性等,也与AI的可控性成反比例关系。因此,对未来AGI的实现路径尽管有不同的研判,但是,AI的能力、通用性、自主性和自动性越强,其失控的风险越大,已是基本共识。以此来看,立昆的比喻“未来造出汽车(AGI),再考虑安全带(应对风险的策略)问题”,未免过于乐观;而奥特曼在北京智源大会上所引用的《老子》的“千里之行,始于足下”,当是更合理的姿态。

“熟能生巧”未得到足够重视

当然,对现有大模型运作机理、未来AGI实现路径的科学认知,又是探讨AI风险及其应对之策的基础。陈小平教授认为:现在的大模型是一种不同于“概括性模型”的“实例性模型”、不同于“原理模拟”的“功能模拟”。而笔者则表述为:是对人的动态的智能活动的模拟。人使用一定智能工具(人脑、语言等符号)把一定的信息加工成信息产品,在此动态过程中,人的智慧能力得以生成和提高。而现在大模型的运作机理实际上是:使用一定智能工具(神经网络、自然语言等符号)把一定的信息(大数据)加工成信息产品(生成文本、图像、视频等)。人的智慧能力并非从人脑(先天条件)直接生成的,而是通过实际地使用语言等符号、接受大量信息(数据)并将其加工为信息产品的不断的“学习”或“预训练”(后天的经验实践等)来生成和提高的,这个动态过程可以用“熟能生巧”加以描述——足够大的数据量、足够多的“学习”“预训练”等,这正表明现有大模型能力的获得和提高也是个“熟能生巧”的过程——只关注计算机神经网络对人乃至动物大脑神经元系统模拟的立昆等,显然不够重视这一点。

被忽视的人类内部的冲突

人类对AI的期待或伦理治理目标,大致可以将此描述为:增进人类福祉、维持人类物种与社会文明的存续发展。科学的态度是不能停留于泛泛而谈,而应具体讨论,比如可以把AI对人的影响分成近期、中期、远期三种。未来的AGI或者超级AI可能获得“自我意识”“自由意志”等,进而威胁人类物种的存续,这种可能性即使会出现,也只是个远期问题——奥特曼、辛顿,尤其是立昆等对此持开放而审慎的态度,但是大众传媒和大众文化产品在过度渲染这种似是而非的可能性,产生的负面后果是:更应关注的欺诈、侵犯隐私等近期风险、造成大量失业等中期风险的更加急迫的问题,反而得不到足够关注和严肃对待。只关注未来超级AI威胁、代替乃至毁灭人类物种,恰恰忽视了:人类内部的冲突——AI的不断升级会不断加剧这种冲突——也可能毁灭人类社会文明。ChatGPT之父奥特曼已经注意到这一点,他推动的Worldcoin所要采取的全民基本收入方案和实验等,就是为了应对AI将造成大量人口失去工作和收入等中期问题的,但是,相对于大众传媒有关ChatGPT的热闹炒作,他这方面的努力并未引起足够关注。

马克思指出:“发展为自动化过程的劳动资料的生产力要以自然力服从于‘社会智力’为前提”,随着自动化的发展,人类社会生活将受到“一般智力”的控制并按照这种智力得到改造——现在的大模型尤其有望实现的AGI,就代表“社会智力”“一般智力”或“通用智能”,DeepMind的AI技术也正在推动自然科学研究的发展,将有助于人类更全面认识和掌握自然规律,解决今天依然有待人类征服的“自然力”问题,比如严峻的气候、生态等问题,进而缓解人与自然的外部冲突——没有任何理由阻碍大模型进一步广泛运用和向AGI迈进。

但是在资本框架下,不是让“自然力”而是让劳动者个人及其出卖的“智力”服从于AI机器所代表“社会智力”,而这只是因为“社会智力”被非劳动者个人所垄断和支配,由此,人类内部的个人与个人之间的矛盾将不断加剧,其不断累积和最终爆发,的确有可能毁灭社会进而人类物种本身,这才是大模型尤其是AGI的“失控点”或“危险点”所在,而对AI的非科学认知,如对超级机器人的科学幻想等,则会误导这方面的认知。用马克思的话来说,现在的实际情况是:作为人的“观念”和“制度”的“上层建筑”跟作为“基础”的AI大模型及其发展大势,严重不对齐。应该追问的是:如何让AI大模型适应人的积极的观念、价值观、制度,并改变人的落后的观念、价值观、制度等而使之与AI大模型及其发展大势对齐?

文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1864期第6版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。

本期责编:王立尧

拓展阅读

数字化 | 大语言模型需要克服诸多关键问题

科技治理 | 用大模型技术点燃AIGC产业“核爆点”

文章来源: https://twgreatdaily.com/zh-hans/ca4539df1a309a7bef3a7a9bd7261d47.html