技术滥用 人工智能如何安全可控发展?

作为引领第四次科技革命的战略性技术,人工智能给社会建设和经济发展带来了重大而深远的影响,但数据隐私、算法偏见、技术滥用等安全问题也正给社会公共治理与产业智能化转型带来严峻挑战。

【安防在线 www.anfang.cn】作为引领第四次科技革命的战略性技术,人工智能给社会建设和经济发展带来了重大而深远的影响,但数据隐私、算法偏见、技术滥用等安全问题也正给社会公共治理与产业智能化转型带来严峻挑战。未来人工智能如何兼顾创新发展与安全可控?6月3日,作为北京智源大会重要内容之一,在由北京瑞莱智慧科技有限公司与阿里安全联合举办的“AI安全与产业治理”论坛上,专家们直击问题、建言献策。

算法脆弱 存安全隐患

“未来人工智能产业发展在扩大应用场景的同时,必须实现数据、算法与应用层的安全可控。”中国科学院院士、清华大学人工智能研究院院长张钹说。

技术滥用 人工智能如何安全可控发展?

张钹表示,AI的发展引发了新一轮的产业变革,一方面带来传统产业的智能化,但也带来了新的风险和安全隐患。从算法层面看,现有的AI算法很脆弱,泛化能力差。这意味着,如果将算法运用到与训练场景区别很大的实际场景中,就会存在安全问题。以无人驾驶为例,人工智能训练的时候不可能穷尽所有的情境,当遇到新的突发事件便无法处理了,造成AI技术的误用。同时,这种脆弱性还使人工智能系统容易被攻击、被欺骗,给AI技术的滥用造成可乘之机。

从数据层面看,现在人工智能应用效果很大程度上依赖数据质量,但由此会带来隐私泄漏、数据确权等问题。如果解决不好数据安全的问题,人工智能产业也不可能健康地发展。

“以上事例说明,AI的发展与治理之间存在很多的矛盾。因此,人工智能的安全可控问题要同步从技术层面来解决。”张钹说,在具体的实现路径上,他提出发展“第三代人工智能”,即融合了第一代的知识驱动和第二代的数据驱动的人工智能,利用知识、数据、算法和算力四个要素,建立新的可解释和鲁棒的AI理论与方法,发展安全、可信、可靠和可扩展的AI技术。

作为第三代人工智能的践行者与引领者,瑞莱智慧CEO田天表示,现阶段人工智能产业正经历从高速增长向高质量发展的转变,产业期待的提升让金融、医疗等更复杂的高价值场景的应用需求不断增加,安全性的重视程度也不断提升,但由于传统技术范式存在天然的算法漏洞和缺陷,难以支撑人工智能的长久高质量发展,为此田天提出,需加快发展第三代人工智能,发展“安全、可控”核心能力。

如何定义人工智能的“安全可控”?田天阐述道,“安全”是指打造数据安全与算法安全两大核心能力,解决数据强依赖带来的隐私泄漏与数据投毒等隐患,同时提升算法的鲁棒性与可靠性,“可控”既指应用层面的合规可控,更指核心技术的自主可控,以自主可控为根基,通过理论创新、技术突破形成核心竞争力。安全可控是发展第三代人工智能的核心基准,也是加快人工智能高质量发展的有力支撑。

相较数据安全,算法安全问题仍处于刚“兴起”阶段,但其安全危害仍然不容小觑。阿里安全资深算法专家何源介绍,虽然人工智能技术已经在净化网络环境、知识产权保护、生物识别、线下安防等安全工作中发挥着越来越大的助力作用,让安全更智能,但其本身也面临着鲁棒性不够、可解释性差、技术滥用等安全风险,比如算法漏洞的存在可以针对图像检索系统开展攻击,导致非原创图片逃逸检测等,对网站安全与商家权益造成威胁等。

百度安全主任架构师包沉浮也表示,算法安全风险的实际危害正逐步体现,自动驾驶场景下,模型鲁棒性的欠缺将导致自动驾驶系统在对抗环境或光线、天气条件多变的复杂环境中发生错误识别而引发严重后果。除了算法安全,他认为人工智能安全还包含“实现安全”。他强调,代码安全与场景安全的“实现安全”也直接影响着AI系统最终决策的完整性与安全性。

需打造配套“基础设施”

“发展安全可控的人工智能是一项系统性的工作,需要行业标准、法律规范等治理工作与技术发展等多个维度共同推进,打造与之配套的‘基础设施’。”与会专家认为,

针对算法治理路径的探索,清华大学人工智能治理研究院副院长梁正表示,从社会治理的角度看,算法模型存在难以解释、难以控制、难以问责的特征,可能导致歧视、脆弱不稳定、操纵剥削、信息茧房等安全风险。与国际算法治理经验相比,国内的治理依据虽然初步形成,虽然政策引导、标准指南、法律规章等相继发布,但尚未形成完善的治理体系。

如何开展算法治理工作?梁正提出,首先需进行分领域、分级治理,并确定治理优先级,目前聚焦于利用个人信息进行的自动化决策系统,未来聚焦于涉及人身安全的高风险领域,同时在算法治理中识别和区分规则问题和技术问题,采取针对性的措施,以及坚持安全、公平、透明和隐私等基本原则,实现负责任的人工智能。

就人工智能发展中隐私和数据保护问题,中伦律师事务所合伙人陈际红表示,网络安全法与不久后将出台的个人信息保护法、数据安全法将构成我国数据保护与监管的“三驾马车”,为数据保护提供严格的法律环境,但人工智能产业发展对于大数据、实时数据、数据融合的需求将与这些数据保护原则产生冲突。

陈际红建议,一方面企业应主动做合规,在产品开发、产品技术架构预先主动防范风险,将隐私的概念引入到产品生命周期之内,另一方面也呼吁立法机构要兼顾隐私保护和产业发展的平衡,社会普遍接受的良好隐私保护理念加上严格的法律环境是助推技术长久发展的两翼。

该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们

(0)
小安小安

相关推荐

  • 甘肃省出台实施方案 大力促进新一代人工智能产业创新发展

    甘肃省将深入实施创新驱动发展战略,加快人工智能与经济社会深度融合,以提升新一代人工智能科技创新能力为主攻方向,加强智能理论研究,拓展人工智能应用,为加快建设创新型甘肃和决胜全面建成小康社会提供科技支撑。这是记者从省政府办公厅近日下发的《甘肃省新一代人工智能发展实施方案》中获悉的。

    2024年1月31日
  • 《中国新一代人工智能发展报告2020》发布

    据报告观察,2019年,美国、德国、日本、韩国、俄罗斯等国均强化人工智能发展战略迭代,对其国家人工智能战略进行了更新,以更好迎接快速发展的人工智能科技创新和经济社会发展新形势。人工智能对科技、产业和社会变革的巨大潜力也得到全球更多国家认同,16个国家新发布了国家人工智能发展战略或计划,另至少还有18个国家正在筹备制定其人工智能发展计划。

    2024年1月28日
  • 北京市发布《北京促进人工智能与教育融合发展行动计划》

    北京市教委7月26日下发了《北京促进人工智能与教育融合发展行动计划》。《计划》提出北京市人工智能教育三个阶段的发展目标,并明确了在基础教育、职业教育和高等教育阶段的主要任务。其中在基础教育阶段,《计划》支持加快人工智能素养教育,建议将人工智能学习纳入综合社会实践活动和开放性科学实践活动。

    2024年1月29日
  • 《2020北京人工智能发展报告》发布 北京在人工智能17个领域领跑全国

    近年来随着人工智能的快速发展,算法歧视、数据隐私泄露等伦理与社会问题逐渐凸显。北京高度重视人工智能伦理安全问题,率先提出人工智能伦理安全“北京方案”,为人工智能健康发展营造了良好环境。

    2024年1月28日
  • 逾20省份发布30余项专项政策 人工智能“规模化落地”

    在新一代人工智能发展规划推进办公室日前召开的2019年工作会议上,科技部副部长李萌介绍,2019年将着重加快项目部署实施,强化基础研究,加大芯片、工具和平台等研发力度,重视人才培养,加快基础设施建设,促进产学研合作,扩大应用示范,强化对实体经济的引领作用,完善促进人工智能发展的政策法规。

    2024年1月29日
  • 聚焦人工智能与未来法治构建 《上海倡议》发布

    以“发展应用与法治保障”为主题的“人工智能与法治”高端研讨会今天在上海举行。现场还发布了《人工智能与未来法治构建上海倡议》,从四大方面务实提出了人工智能与未来法治发展的14项具体倡议,坚持面向全球、面向未来、面向和平,坚持以人为本、向善安全、创新发展、共享成果、可靠可控、规范有序。

    2024年1月31日