11月3日,由全国数据标准化技术委员会(以下简称“全国数标委”)主办,全国数标委秘书处(中国电子技术标准化研究院)和江苏省数据局承办的全国数标委2025年第二次“标准周”活动在江苏省南京市举行。
活动期间,浙江大学计算机科学与技术学院院长、全国数标委委员任奎就“人工智能数据安全”议题进行了阐释。他表示,数据要素的泄露、篡改、污染、滥用等问题易引发严重安全风险,各国正通过顶层设计和立法监督加强人工智能数据安全治理,确保AI技术发展安全可控。

任奎在WG2数据治理标准工作组会议上发言。人民网记者 马晓波摄
“人工智能生命周期涵盖多个阶段,构建阶段是奠定模型安全基石的核心环节,需针对该阶段风险特征开展源头性、深层次安全治理。”任奎称,安全评测在模型构建完成、部署应用前对其进行全面“体检”,可系统性发现偏见、歧视等潜在缺陷;安全训练则是构建阶段的“安全加固器”,通过在训练数据中注入安全知识与对齐指令,从源头提升模型安全“免疫力”,使其天生具备抵御恶意诱导和攻击的能力。
此外,安全语料构建是源头治理的重要支撑。任奎提出,可创新构建具备多元维度融合、安全价值对齐、越狱攻防强化三大特征的安全训练语料,为AI模型注入内生安全基因。
任奎称,浙江大学已与华为联合发布DeepSeek-R1-Safe基础大模型。“该模型在有毒有害言论、政治敏感内容、违法行为教唆等14个维度的有害问题防御上,整体表现亮眼。”
背景链接
9月18日,浙江大学与华为技术有限公司联合发布的DeepSeek-R1-Safe基础大模型,是国内首个基于昇腾千卡集群算力平台研发的重大成果。
点击链接查看详情:计算机学院基础大模型成果在华为全联接大会发布,破解AI“安全与性能”难题


