【安防在线 www.anfang.cn】5年之内,有偏见的AI系统和算法将不断增多,就像早前的计算机病毒增多一样。但我们将采取相应的应对措施,提出新的解决方案来控制AI中的偏见,并提倡没有偏见的AI系统。
AI系统是否会有偏见,其实取决于我们往里面放什么样的数据。不良数据可能含有含蓄的种族、性别或意识形态偏见。许多AI系统的培训仍将继续使用不良数据,导致这个问题持续存在。但是我们相信可以抑制偏见,而且解决了偏见问题的 AI 系统会大获成功。
随着人类和AI一起做决定的情况越来越多,研究人员正在寻找各种途径,以确保人类偏见不会影响用于指导这些决策的数据或算法。
为了促进人类共同繁荣,麻省理工学院-IBM Watson AI实验室利用AI和计算认知建模上的最新成果(如符合伦理的契约式方法),通过描述人们在决策制定过程中使用的原则来确定人类思维如何应用它们。这样做的目的是为了创造出在做决策时能够应用特定的人类价值观和原则的机器。
有一个原则对人类和机器而言都非常重要,那就是要避免出现偏见,进而防止出现歧视。AI系统中的偏见主要发生在数据或算法模型中。在我们努开发值得信任的AI系统时,要尽量用不带偏见的数据开发和训练系统,并开发易于解释的算法。
为此,IBM 研究人员开发了一种方法来减少训练数据集中可能存在的偏见,这样之后利用该数据集进行学习的AI 算法就能尽量保持公平。
IBM科学家还设计了一种方法来测试 AI 系统,即使没有训练数据也可以使用。这项研究提议设立一个独立的偏见评分系统来确定AI系统的公平性。例如,AI服务可能是无偏见的,并且能弥补数据偏见造成的影响(理想情况下),也可能是仅仅关注训练中的偏见属性(这可以通过数据去偏见技术来解决),甚至会引入偏见,而不管数据是否公平(最糟的情况)。AI的最终用户能根据每个系统的偏见水平来确定它的可信度。
只有不断发现并减少AI系统中的偏见,人类与具备学习能力的机器之间才能建立起信任。AI系统通过发现、理解并指出人类在决策过程中的自相矛盾,也可以揭示出我们在哪些方面存在不公平、狭隘和认知偏见,继而促使我们采用更加公平和平等的观点。
在识别我们的偏见并向机器传授我们共同价值观的过程中,我们获得的进步可能比AI要多。我们可能更多是在完善我们自己。
该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们。