10月13日,国家金融监督管理总局发布《关于警惕利用AI新型技术实施诈骗的风险提示》,提醒广大金融消费者警惕新型诈骗手段,维护个人及家庭财产安全。
如今,我们已经进入人工智能时代,人工智能已经渗透到我们生活和工作中的方方面面,小到我们日常身处其中的各种算法,大到企业和国家的发展与竞争,人工智能都在发挥作用,而且会发挥越来越大的作用。
当前,AI技术的广泛应用为社会公众提供了个性化、智能化的信息服务,给我们带来便利的同时,也给不法分子留下了可乘之机。如不法分子通过面部替换、语音合成等方式实施诈骗、造谣等违法犯罪活动!只要你一不小心就会“入套”!眼见不一定为真耳听也不一定为实。
近期,公安机关破获多起涉人工智能案件。今年6月,浙江绍兴上虞区警方发现有网民发布了关于上虞工业园区发生火灾的视频,视频中,上虞区一工业园区内火势猛烈,整个园区被浓烟覆盖。民警核查发现,视频中的建筑、森林大火场景,并非该工业园真实场景,而是利用人工智能合成技术,将网络上多段不同视频剪辑拼接而成。
社交平台的发展加大了保护个人信息的难度,民众将越多的个人信息暴露在网络上,致使受骗的概率升高。临沂市临沭县张先生收到了自称是有过交集的“熟人”的微信好友添加申请,张先生通过其好友申请后,对方打来了视频电话,视频画面中看起来对方在说话,但是张先生这边却听不到声音。“熟人”向张先生要了银行卡账号和开户名,张先生到附近银行将手头上现有的10万元转到了相应账户。
不法分子滥用人工智能技术,给社会带来严重危害,也触犯了相关法律。《互联网信息服务深度合成管理规定》第二十二条规定深度合成服务提供者和技术支持者违反本规定的,依照有关法律、行政法规的规定处罚;造成严重后果的,依法从重处罚。构成违反治安管理行为的,由公安机关依法给予治安管理处罚;
利用AI新型技术实施主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而骗取钱财。不法分子通常先以“网店客服”“营销推广”“招聘兼职”等为借口,通过微信、QQ、电话等方式联系消费者,采集发音、语句或面部信息。再利用“拟声”“换脸”等技术合成消费者虚假音频或视频、图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。此外,不法分子还可能对明星、专家、官员等音视频进行人工合成,假借其身份传播虚假消息,从而实现目的。
为避免有人借用个人信息实施不法行为,民众应当加强个人信息保护意识,民众要警惕利用人工智能技术进行新型犯罪,防止信息泄露,不轻易提供人脸、指纹等个人生物信息给他人。
该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们。