“数字化进入新阶段,我们面临着全新的安全挑战。”1月18日,中国社会科学院大学数字中国研究院举办“数字时代安全科技价值”专题研讨会,中国社会科学院大学数字中国研究院执行院长吕鹏在会上说,“安全风险呈现出快迭代、高智能、全覆盖的新特点。尤其是有了生成式人工智能以后,关注人工智能的安全风险更加紧迫。”
研讨会上发布了《数字时代安全科技价值报告》。该报告指出,未来,安全科技将成为公共品,与人工智能(以下简称AI)并列成为两项通用技术。具体来看,AI作为核心关键技术,将成为未来生产力的“发动机”。安全科技将作为“方向盘”,把新兴科技控制在向善的道路上。新的安全技术发展得越好,个人与社会为数字化转型所付出的代价也将越小。
安全科技将成为公共品
“当人们提到安全科技时,想到的往往是防病毒软件和防火墙软件。但全球安全科技的版图和技术工具已远远超过这个范围。”吕鹏介绍,“在网络安全、系统安全之外,还有数据安全、终端安全、AI安全、云安全等技术门类,也包括区块链、隐私计算、量子计算等前沿技术。”
浙江工业大学网络空间安全研究院院长宣琦指出,本质上,安全科技是一种伴生技术。它永远在面向新科技、新发展。比如,伴随AI发展提出智能安全,针对生物科技提出生物安全。新技术的发展有时非常快速,所以安全技术的发展和创新也同样在高速进行。
中国社会科学院科学技术和社会研究中心研究员段伟文认为,未来,安全科技必将成为公共品。整体来看,安全科技具有“压舱石”与“助燃剂”的双重价值:守住技术的安全底线,防御外部风险隐患,让技术“难作恶”;提高技术的安全上限,降低技术运行成本,让新技术得以规模化落地,让产业在安全的基础上“跑起来”。
吕鹏举例说明安全科技在产业发展中的应用。“北京中铁建工物资有限公司和蚂蚁蚁盾共建产业风控平台,用数据智能防范上下游的协作风险,产生了较好的效果。”吕鹏说,“工作效率提高了50%以上,产业授信额度的评定科学化、可量化程度也得到大幅提高。风险预测、预警、事后风险处置等都更好更精准。”
AI安全风险主要分三类
2023年,AI大模型安全风险凸显。AI技术在带来强有力的新工具的同时,也带来数据隐私、技术滥用、失控等安全问题。“加强对AI这一新兴技术的潜在风险研判和防范,确保AI安全、可靠、可控,已成为产业发展的核心要素。”吕鹏说。
在段伟文看来,AI安全风险目前来看主要可以分为三类:内生风险、衍生风险、外生风险。
在内生风险方面,AI存在技术本身的脆弱性、对数据的依赖性等自身缺陷带来的安全问题。比如,如果给数据库不断投喂带有特定价值观的数据,会对AI系统形成严重干扰,产生“数据偏见”“观点霸权”等问题。衍生风险是指AI系统因其自身脆弱性被利用或不恰当使用,可能引发其他领域的安全问题。例如生成虚假新闻、利用深度合成伪造进行诈骗等,这涉及人身安全、隐私保护等一系列社会治理挑战。外生风险也就是面向AI系统的外部网络攻击。
《数字时代安全科技价值报告》认为,当前,安全风险变得更加复杂隐蔽、强对抗、更具破坏力,将AI驱动的业务风控系统建设得更强、更智能,更好地应对大规模网络攻击与入侵,成为行业健康发展的必需。过去几年,通过应用AI来提高安全技术的效率和成功率,已经成为技术领先企业的常态。业界开始推出“大模型质检”类安全产品,成为推进大模型安全健康发展的方式之一。
“快”“慢”结合维护大模型安全
吕鹏指出,AI技术发展给安全治理增加挑战的同时,也形成AI安全治理的“新工具箱”。
谈到“用AI对抗AI”的具体产业实践,他介绍,一方面,可以使用智能对抗技术向大模型“投射问题”,观察模型生成的回答,以此实现对AI生成图片、视频等多模内容进行“真伪”辨别和安全性检测。另一方面,通过智能化风控技术,可以帮助大模型拦截外界的恶意提问,确保外部恶意诱导无法传入大模型。同时,对生成的回答内容能够进行风险过滤,保障大模型上线后从用户输入到生成输出实现整体安全防御。
整体来看,通过从已有数据中学习,AI可以更快地识别攻击的模式和趋势,从而预测未来攻击,并配置自动响应威胁功能,在更快的时间内对抗网络威胁。
吕鹏表示,维护大模型安全既要“快”也要“慢”。大模型安全防御方面要“快”,要能快速检测、查杀病毒,确保服务无毒害。大模型安全可信方面要“慢”,要能长远地、体系化地保证整个系统环境的可控、可信。
该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们。