人脸识别引发道德伦理担忧!你的脸被监视了吗?

人脸识别系统已经给我们的城市带来诸多方便。然而,在许多国家,对人脸识别的抵抗声也在不断高涨。研究人员、公民自由倡导者和法律学者都受到人脸识别技术兴起的困扰。他们正在跟踪其使用,揭露其危害并开展运动以寻求保障甚至是彻底禁止技术的使用。然而,技术发展的潮流浩浩荡荡,更多人认为该技术的存在是“不可避免的”,但是其背后存在的道德伦理问题值得我们深思。

【安防在线 www.anfang.cn】人脸识别系统已经给我们的城市带来诸多方便。然而,在许多国家,对人脸识别的抵抗声也在不断高涨。研究人员、公民自由倡导者和法律学者都受到人脸识别技术兴起的困扰。他们正在跟踪其使用,揭露其危害并开展运动以寻求保障甚至是彻底禁止技术的使用。然而,技术发展的潮流浩浩荡荡,更多人认为该技术的存在是“不可避免的”,但是其背后存在的道德伦理问题值得我们深思。

近期,《自然》杂志的一系列报道对人脸识别系统背后的道德伦理学进行了探讨。一些科学家正在分析人脸识别技术固有的不准确和偏见,对其背后存在的歧视发出警告,并呼吁加强监管、提高技术透明度。

《自然》杂志对480位从事人脸识别、人工智能和计算机科学领域研究的研究人员的调查显示,人们对人脸识别研究的伦理学普遍存在担忧,但也存在分歧。

人脸识别引发道德伦理担忧!你的脸被监视了吗?

有些未经同意获取数据

为了使人脸识别算法正常工作,必须对大型图像数据集进行训练和测试,理想情况下,必须在不同的光照条件和不同的角度多次捕获这些图像。过去,科学家普遍招募志愿者,只为收集各种角度的照片;但现在,大多数人未经许可即被收集人脸图像。

在《自然》杂志的480位受访者中,当被问及对应用面部识别方法从外表识别或预测个人特征(如性别、年龄或种族)的研究有何看法时,约三分之二的人表示,此类研究只能在获得面部识别者知情同意的情况下进行,或者在与可能受到影响的群体代表讨论后进行。

大多数人认为,使用人脸识别软件的研究应事先获得伦理审查机构(例如机构审查委员会)的批准。他们认为,对于在学校、工作场所或由私人公司监视公共场所时使用人脸识别进行实时监视感到最不舒服,但是他们通常会支持警察在刑事调查中使用人脸识别系统。

从法律上讲,目前尚不清楚欧洲的科学家是否可以未经人们的同意而收集个人人脸的照片以进行生物识别研究。欧盟的通用数据保护条例并没有为研究人员提供明显的法律依据。在美国,一些州表示,商业公司未经其同意使用个人的生物识别数据是非法的。

受访者强烈认为,应该有其他法规来规范公共机构使用人脸识别技术。超过40%的人则希望禁止实时大规模监视。

存在性别和种族偏见现象

人脸识别系统通常是专有的并且保密,但是专家说,大多数系统涉及一个多阶段过程,该过程通过深度学习对大量数据进行大规模神经网络训练。

美国国家标准技术研究院(NIST)在去年年底发布的报告中称,人脸识别的准确率有了显著提高,深度神经网络在识别图像方面效果明显。但NIST同时也证实,相对于有色人种或女性,大多数人脸识别对于白人男性面孔的准确性更高。特别是,在NIST的数据库中被归类为非裔美国人或亚裔的面孔被误认的可能性是那些被归类为白人的面孔的10~100倍。与男性相比,女性误报的可能性更高。

领导NIST图像小组的电气工程师克雷格・沃森认为,这种不准确很可能反映了每家公司培训数据库构成的不平衡,一些公司可能已经开始解决这个问题。

有待严格立法和监管

致力于人脸识别或分析技术的研究人员指出,人脸识别有很多用途,比如寻找走失的儿童,追踪罪犯,更方便地使用智能手机和自动取款机,通过识别机器人的身份和情绪来帮助机器人与人类互动,在一些医学研究中,还可以帮助诊断或远程跟踪同意的参与者。

人脸识别技术有好处,但这些好处需要根据风险进行评估,这就是为什么它需要得到适当和细致的监管。

目前,许多研究人员以及谷歌、亚马逊、IBM和微软等公司都呼吁在人脸识别系统方面出台更严格的监管措施。

马萨诸塞州波士顿东北大学研究面部监控的计算机科学家、法学教授伍德罗・哈特佐格说视人脸识别技术为“史上最危险的发明”,说如果美国立法者允许公司使用人脸识别,他们应该编写规则,从健身房到餐厅都应当禁止“面部指纹”的收集和储存,并禁止将人脸识别技术与自动化决策(如预测性警务、广告定位和就业)结合使用。

尚须谨慎研究和思考

密歇根州立大学东兰辛分校的计算机科学家阿尼尔・贾恩说:“在我们的社会中,我们需要大量正当而合法的人脸和生物识别应用。”但一些科学家表示,研究人员也必须认识到,在人们不知情的情况下对人脸进行远程识别或分类的技术从根本上是危险的,应该努力抵制其被用来控制人们的做法。

作为人工智能领域的首要会议之一,神经信息处理系统会议是今年首次要求进行这种道德考量,即提交有关人脸识别论文的科学家必须添加一份声明,说明他们的工作中存在的伦理问题和潜在的负面后果。

此外,《自然机器智能》杂志也在试图要求一些机器学习论文的作者在文章中加入一项声明,考虑到更广泛的社会影响和伦理问题。

纽约伊萨卡市康奈尔大学从事技术伦理研究的社会学家凯伦・利维认为,研究人脸识别的学者意识到道德伦理问题,“感觉像是科学界真正的觉醒”。

该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们

(0)
小安小安

相关推荐

  • 甘肃省出台实施方案 大力促进新一代人工智能产业创新发展

    甘肃省将深入实施创新驱动发展战略,加快人工智能与经济社会深度融合,以提升新一代人工智能科技创新能力为主攻方向,加强智能理论研究,拓展人工智能应用,为加快建设创新型甘肃和决胜全面建成小康社会提供科技支撑。这是记者从省政府办公厅近日下发的《甘肃省新一代人工智能发展实施方案》中获悉的。

    2024年1月31日
  • 《中国新一代人工智能发展报告2020》发布

    据报告观察,2019年,美国、德国、日本、韩国、俄罗斯等国均强化人工智能发展战略迭代,对其国家人工智能战略进行了更新,以更好迎接快速发展的人工智能科技创新和经济社会发展新形势。人工智能对科技、产业和社会变革的巨大潜力也得到全球更多国家认同,16个国家新发布了国家人工智能发展战略或计划,另至少还有18个国家正在筹备制定其人工智能发展计划。

    2024年1月28日
  • 北京市发布《北京促进人工智能与教育融合发展行动计划》

    北京市教委7月26日下发了《北京促进人工智能与教育融合发展行动计划》。《计划》提出北京市人工智能教育三个阶段的发展目标,并明确了在基础教育、职业教育和高等教育阶段的主要任务。其中在基础教育阶段,《计划》支持加快人工智能素养教育,建议将人工智能学习纳入综合社会实践活动和开放性科学实践活动。

    2024年1月29日
  • 《2020北京人工智能发展报告》发布 北京在人工智能17个领域领跑全国

    近年来随着人工智能的快速发展,算法歧视、数据隐私泄露等伦理与社会问题逐渐凸显。北京高度重视人工智能伦理安全问题,率先提出人工智能伦理安全“北京方案”,为人工智能健康发展营造了良好环境。

    2024年1月28日
  • 逾20省份发布30余项专项政策 人工智能“规模化落地”

    在新一代人工智能发展规划推进办公室日前召开的2019年工作会议上,科技部副部长李萌介绍,2019年将着重加快项目部署实施,强化基础研究,加大芯片、工具和平台等研发力度,重视人才培养,加快基础设施建设,促进产学研合作,扩大应用示范,强化对实体经济的引领作用,完善促进人工智能发展的政策法规。

    2024年1月29日
  • 聚焦人工智能与未来法治构建 《上海倡议》发布

    以“发展应用与法治保障”为主题的“人工智能与法治”高端研讨会今天在上海举行。现场还发布了《人工智能与未来法治构建上海倡议》,从四大方面务实提出了人工智能与未来法治发展的14项具体倡议,坚持面向全球、面向未来、面向和平,坚持以人为本、向善安全、创新发展、共享成果、可靠可控、规范有序。

    2024年1月31日