2025年8月,国务院印发《关于深入实施“人工智能+”行动的意见》提出,“加快形成人机协同、跨界融合、共创分享的智能经济和智能社会新形态”。9月,《上海合作组织成员国元首理事会天津宣言》呼吁,“将坚持以人为本、智能向善理念,共同防范人工智能技术的风险”。
近日,党的二十届四中全会审议通过的“十五五”规划建议,提出全面实施“人工智能+”行动,以人工智能引领科研范式变革,加强人工智能同产业发展、文化建设、民生保障、社会治理相结合,抢占人工智能产业应用制高点,全方位赋能千行百业,并对加强人工智能治理作出明确部署,要求完善相关法律法规、政策制度、应用规范、伦理准则,完善监管,推动平台经济创新和健康发展。
人工智能技术的快速发展,深度介入乃至重新塑造着人类社会运行逻辑,既带来了巨大的经济、民生和治理红利,也隐匿着价值失准、伦理失衡等风险挑战。在此背景下,如何实现科技与人文相互融合,以科学的价值准则、有效的治理思路推动人工智能向善而行、造福人类,为社会所普遍关注。

浙江杭州智能制造企业“未来工厂” 图源:新华社 杜潇逸/摄
从生产方式变革角度
看人工智能的红利与伦理风险
人工智能发展红利和伦理风险的背后,是一场深刻的生产方式变革。在历史唯物主义视域下,可以从社会协作、总体工人、一般智力等生产逻辑把握人工智能发展带来的红利与风险。人工智能所表现出的无人化、智能化特征,是人工智能技术链条全环节社会化生产的结果,更是科技力量在社会协作过程中的抽象化体现。
在人工智能技术发展的背后,有的人专门负责数据采集、标注,有的人负责算法设计、模型训练,有的人负责算力供给等。可见,所谓无人化背后,有着人工智能行业的大量从业者,是社会协作形成的总体工人。
这一生产方式的变革,意味着原来建立在传统工业生产方式基础上的伦理规范、价值主张都面临着新的生产方式挑战。正如“手推磨产生的是封建主的社会,蒸汽磨产生的是工业资本家的社会”,人工智能技术的出现和发展带来的数智化生产方式变革,也意味着智能社会的到来。
在此基础上,新型人机关系、数据所有权、算法解释权等新型关系的出现,意味着在此生产方式基础上人与人的关系要被重塑,进而也就要有新伦理的建构。在此过程中,形形色色的新发展机遇和伦理风险也就被历史地“生产”出来。如此,不论是人工智能发展红利,还是新的伦理风险,都需要深入其现实实践生产的关系中去把握。

2025年世界人工智能大会展览现场,观众与人形机器人互动 图源:新华社 陈浩明/摄
在对人机关系的科学把握中
明确“从善之理”
事实上,对智能向善的把握,根本价值根基在于以人的全面发展为原点,并锚定全人类共同价值。对此,可以从科技逻辑和应用逻辑两个维度来分析。
一方面,在科技逻辑上,智能向善需要从人工智能科技创新的各个环节入手,推进价值对齐。人们在进行人工智能研发的每一个环节都隐含价值倾向,应确保技术设计本身就嵌入善的准则。例如,利用高质量标注的数据训练大模型,避免数据投毒、数据污染,让大模型学习人类主流价值观和伦理规范。在这个维度,人工智能的“从善之理”就是创新发展普惠、公平、人本的人工智能技术。
另一方面,在应用逻辑上,智能向善需要在把握人工智能各种应用规律基础上,进行合乎伦理规范和主流价值观的应用。人工智能的应用场景直接关联个体权益与社会秩序,要让人工智能的发展合乎普惠公平、人类福祉等价值目标,让人工智能的各种应用符合善的价值标准,将以人为本、智能向善的理念贯穿应用全流程。

2025年苏州市“人工智能+”创新发展推进大会展示的脑机接口智能装备 图源:新华社 李博/摄
在平衡创新发展与风险防控中
探索“向善之路”
推动人工智能创新发展,既要防止因过早规制而抑制创新活力,也要避免因监管缺位导致放任风险。破解“科林格里奇困境”,核心在于跳出“规制与创新非此即彼”的二元思维,探索“以技术创新反哺治理创新”的协同路径。
当前人工智能技术自身的发展成果,如可解释人工智能、实时风险监控算法、数据安全技术等,为这种协同治理模式提供了技术支撑,这意味着我们完全有可能借助技术工具精准识别风险、灵活适配创新节奏,让治理与技术发展同频共振。
具体而言,实现全生命周期动态治理需要紧扣技术特性分环节落地:
事前环节,依托算法公平性检测、数据合规审查等技术工具,建立高风险应用准入机制,提前筛查数据偏见与算法漏洞,同时为娱乐类生成式人工智能等低风险技术保留迭代空间;
事中环节,结合监管沙盒与实时监测技术,通过边缘计算识别推荐算法信息茧房倾向,依托联邦学习监测跨境人工智能安全隐患,实现“边试错边优化”;
事后环节,借助区块链明确责任边界,针对数据泄露、算法歧视等风险建立分级处罚机制,既确保追责有据,又避免过度惩戒抑制创新。
当然,技术工具并非万能钥匙,它必须与健全的法律法规、广泛的伦理共识以及多元的社会参与相结合,才能共同构建起坚实的人工智能治理框架。

新一代神经拟态类脑计算机“悟空” 图源:浙江大学公众号
多元主体科学配合
凝聚智能向善的社会合力
政府在人工智能治理中扮演着顶层设计者和统筹引导者的角色,从实践维度出发,政府需以制度供给与统筹引导为核心,构建人工智能伦理治理的基础框架。近年来,我国已出台《新一代人工智能伦理规范》《生成式人工智能服务管理暂行办法》等政策文件,明确了人工智能研发、应用的伦理底线与合规要求。这些举措为全社会形成人工智能向善理念奠定了坚实基础。
企业作为人工智能技术研发与应用的核心主体,需将法律法规与伦理要求融入生产经营全流程,落实主体责任。公众的深度融入是人工智能向善的关键驱动力。在参与层面,公众可通过政府搭建的政策征求意见平台反馈对人工智能伦理治理的诉求,也可借助企业设立的用户反馈渠道提出改进建议。
社会组织则可通过发布风险提示、开展服务体验调查等方式,引导公众参与监督。在素养提升层面,我国部分中小学已将人工智能伦理知识纳入信息科技课程,通过案例教学解析算法歧视、信息茧房的危害。
作者简介

卢丽强:浙江大学计算机科学与技术学院百人计划研究员


