近年来,人脸识别技术发展到了新的高度,得到了越来越广泛的应用和普及。随着人脸识别技术的不断升级,人们在畅享便利的同时,对其安全隐患及伦理困境也深表担忧。
远程识别多项人体特征
与其他生物特征识别技术相比,人脸识别技术有其独到之处。“人脸识别技术认证相对省力,并且更加可靠。”荷兰特温特大学技术哲学教授菲利普・布瑞(Philip Brey)对本报记者表示,与指纹识别、虹膜识别等方式相比,人脸识别技术能够从远处进行“隐性”筛选。英国《经济学人》杂志发表的有关人脸识别技术的文章认为,远距离操作是人脸识别技术的重要特征。人脸识别对身体的侵入性较弱,无需接触,也不需要明显的肢体动作,就能够记录下人体的更多特征,如性别、种族、情绪表达等。
美国斯坦福大学组织行为学助理教授迈克尔・科辛斯基(Michal Kosinski)表示,有了准确的数据集,与人脸识别系统类似的人工智能系统甚至可以得到智商、政见等信息。
有可能侵犯公众隐私
人脸识别系统越来越多地被应用于执法当中,成为执法机关追踪犯罪的有力工具,但这也有可能侵犯公众隐私。布瑞表示,人脸识别技术带来的伦理困境主要包括,侵犯他人隐私、发生误认、种族分析和歧视、功能蔓延风险(即在未获得利益相关方同意的前提下,认证系统使用本来意图范围之外的新功能及新应用)等。经济、快速、大规模地对人脸图像进行记录、储存和分析,可能对隐私、公平及信任等概念带来根本性改变。
英国剑桥大学相关研究显示,即使人们采取措施模糊面部特征,如用帽子、围巾、眼镜等遮住面部,人脸识别系统仍能达到约55%的准确率。人们不禁担忧人脸识别技术是否会对个人隐私构成侵犯。对此,布瑞表示,人脸识别技术对于隐私的影响,主要取决于其对哪些脸部特征进行录入,以及如何使用信息。此外,该技术是否获得了公众的知情同意、人脸图像是否被储存、人们是否知晓该技术的应用、脸部特征是否可作他用、信息是否共享,以及是否录入性别、种族和情绪等脸部特征,上述因素决定了人脸识别技术对隐私的影响程度。
《经济学人》称,人脸识别技术还可能导致一些歧视现象更加普遍,例如,人脸识别系统对性别、种族等特征予以录入,系统使用者利用这些信息进行种族分析。雇主本就因为偏见而拒绝一些人的求职申请,人脸识别技术应用后,雇主还可以根据种族、智商迹象及性别等因素对求职请求进行过滤,这也会使歧视现象更加常见。
布瑞表示,如果人脸识别信息系统或使用方式存在歧视,将不利于社会公平。如果某些具有特定脸部特征者被频繁挑选出来,遭受拦截、搜查或逮捕,或者某些人的面部特征与被搜寻者的面部特征类似,那么他们也可能被频繁的系统识别错误所困扰。
出台相应法律措施
不断进行人脸记录,再利用工具将计算机化的数据绘制到现实世界中,人类社会交往的性质将可能发生改变。甚至,人类社交基础也可能发生改变,从前基于信任做出允诺,未来则可能根据人脸识别信息进行风险评估及报偿计算。人类的婚姻生活、职场生活可能变得更加真实可信,但也可能出现不和谐。
布瑞说,如果公众感到人脸识别系统侵犯其隐私或导致偏见,遭到滥用或造成社会不公,那么人脸识别系统就可能对人们的信任感造成破坏。而这种情绪是否会出现,则取决于应用人脸识别系统的当地文化及社会背景。因此,有必要保持人脸识别系统对公众的透明度,并采取相关举措维护公众信任。
布瑞还建议,为应对人脸识别技术对隐私带来的威胁,需要尽量确保公众知情权并且征得其同意,识别系统应当遵守隐私指南和规定;为避免识别错误问题,有必要制定检测程序,降低识别错误率,并对识别错误带来的经济损失和精神损害进行赔偿;为避免种族歧视,需要在人脸识别系统中排除种族分类,还要采取举措避免其他形式的歧视;对于功能蔓延风险,有必要制定明确的、有约束力的指导方针,详细规定人脸识别系统的使用情况与不可使用情况等,并对其进行适当监督。
目前,人们正在探索人脸识别技术的相关立法。欧洲已经有所行动,规定包括人像在内的生物信息属于本人所有,对其使用需要征得同意。而如何化解人脸识别系统带来的伦理学、哲学困境,还有待全球学者的共同研讨和商榷。
该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们。