北京时间6月8日早间消息,Alphabet旗下谷歌部门周四称,该公司将禁止其AI(人工智能)软件被用于武器或不合理的监视措施,这意味着该公司开始为其在这个新兴业务领域中的业务决策建立标准。
这种新的限制措施可能有助于谷歌管理层平息数千名员工在过去几个月中的抗议活动,他们反对该公司与美国军方合作识别无人机视频中的物体。
谷歌CEO桑达尔・皮查伊(Sundar Pichai)周四发表博文称,该公司将寻求获得美国政府的其他合同,其中包括与网络安全、新兵招募以及搜救行动有关的合同等。他说道:“我们想要明确一点,那就是虽然我们不会开发用于武器的AI技术,但仍将继续在其他很多领域中与政府和军方展开合作。”
先进计算机成本和性能方面的突破已令AI技术开始从研究实验室走向国防和医疗等行业,而在出售AI工具这个新兴的业务领域中,谷歌及其他一些大型科技公司已经成为了佼佼者。这种技术能让计算机查阅庞大的数据集以作出预测,以快于人类的速度找出模式和反常现象。但AI系统可能促成让专业军人也自叹不如的精准无人机打击,或是通过大规模收集线上交流信息的方式来找出异见者,从而引发了学院派伦理学家和谷歌职员的忧虑。
“建立一种明确而贯彻始终的标准来反对自身技术的武器化”将有助于谷歌证明其“捍卫国际客户和用户信任的决心”,英国兰卡斯特大学(Lancaster University)社会学教授露西・萨奇曼(Lucy Suchman)在谷歌周四宣布上述消息之前向路透社说道。
谷歌表示,该公司不会寻求发展旨在带来身体伤害的AI应用,或是与“违背国际认可的人权规范”的监视行为有关的应用,又或是与可能带来的好处相比“造成损害的风险更大”的应用。
另外,谷歌制定的原则还要求公司职员及客户“避免给人带来不公正的影响”,尤其是与种族、性别、性向以及政治或宗教信仰有关的影响。
皮查伊称,对于违反上述原则的应用,谷歌保留封禁的权利。
一名谷歌高管称,这些原则和建议是一种“样板”,AI社区中的任何人都可马上在自己的软件中加以应用。虽然微软和其他一些公司此前也已发布了AI指导原则,但整个行业一直都在密切关注谷歌的作法,原因是该公司内部职员强烈反对其与美国政府之间的无人机合作。
该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们。