继此前“10分钟科技公司老板被AI换脸骗走430万元”事件引发关注之后,5月25日,又一起AI换脸诈骗事件被媒体曝光,这次金额达到245万,且整个诈骗过程时间更短,仅有9秒钟。
一时间,“AI换脸”新型诈骗进入大众视野,“AI诈骗正在全国爆发”话题更是一度冲上热搜第一,引发网友热议。
01.
AI科技被“黑化”
这两起典型的AI诈骗事件,先是诈骗分子通过使用他人真实姓名及照片冒充他人身份添加被害人微信,再利用“AI换脸”和声音合成等相关技术与被害人进行短暂视频通话,博取被害人信任后实施诈骗。
虽然目前经披露曝光的AI诈骗案件并不多,但据官方机构发布的微博,自AI技术新骗局来袭后,诈骗成功率竟接近100%。
未来,犯罪团伙可能不再如以前电话诈骗那般漫无目的地全面撒网,而是通过AI技术筛选受骗人群,锁定特定对象,为此不少网友表示AI技术被“黑化”实在太可怕。
不可否认的是,随着AI技术的进步,AI换脸的门槛确实也越来越低,也许以前AI换脸还需要一两百张图片,现在不同角度的照片,一般5到8张就可以生成很不错的模型了,而这也是现阶段不少企业官宣的大模型所具备的亮点。
02.
AIGC的矛与盾
值得大家关注的是,现在AI换脸不只用于诈骗,还出现在了直播带货上,有的主播通过换脸冒充当红女明星带货,以赚取大额流量和销量。
除此之外,由AI生成的数字人主播、歌手如今也开始在相关平台中24小时活跃在线,要往较大应用范围来说,某些娱乐平台推出的“美颜滤镜”其实也算得上是AI换脸的“平替”。
显而易见,随着AIGC技术的普及推广,如今普通大众轻而易举便能使用到AI生成式相关应用工具,这从APP
Store搜索相关词条便出现一堆眼花缭乱的APP应用便可印证。
不可否认,近期基于AIGC技术的各类大模型的发布也确实让人眼前一亮,AI技术平权在某些方面确实能够较大幅度提高个人的信息内容处理和输出效率。
AIGC有着“化繁为简”的神奇魔法,在如今碎片化严重、信息量爆炸的时代,能熟练运用AIGC技术无疑相当于开了上帝视角。
如果说AIGC的应用是矛,那安全便应是AIGC的盾。在面临恶意伪造的物理或生物信息造成的安全隐患事件上,极需要政府或者企业研究基于AI生成内容的鉴伪技术,通过更成熟的反AIGC技术去鉴定、识别、阻止造假。
另外,都说用“魔法”打败“魔法”,正如创新工场董事长李开复前两日的公开分享,AI 2.0可能制造虚假信息,这个缺陷不能完全被杜绝,AI
2.0可能被坏人利用来针对性的欺骗或洗脑用户,因此,开发AI 2.0时,需要同时研究控制AI 2.0的技术和管理AI 2.0的法律法规。
去年12月,《互联网信息服务深度合成管理规定》发布,其对人脸生成、替换、操控,合成人声、仿声等都有明确约束。
今年4月11日,国家网信办也起草了《生成式人工智能服务管理办法(征求意见稿)》,征求意见稿提出,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,禁止非法获取、披露、利用个人信息和隐私、商业秘密。
显然,随着相关法律法规制度的健全,AI监管将会越来越严格。那话说回来,面对恶意的AI诈骗,普通大众该如何去辨认、防范呢?
03.
个人如何预防AI骗局
有专家提示称,“AI假脸”的纹理特征存在破绽。例如,伪造后的视频人物的眼睛或牙齿轮廓细节容易不一致;两只眼睛瞳孔的颜色不一样或瞳孔中心反射的细节不一样;很多伪造视频由于视频分辨率低于原始视频,伪造出来的视频牙齿边缘过于整齐等。
除了以上的细节关注,以下防范方式是受较多官方媒体推广的,整理出来仅供大家参考:
多重身份验证,适时设置延时到账
在涉及到转账交易等行为时,要格外留意,可以通过长时间电话和视频等方式确认对方是否是本人。
在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”以预留处理时间。尽量通过电话询问具体信息,确认对方是否为本人。
即便对方运用AI技术行骗,也可以通过提问的方式进一步确认身份。建议大家最好向对方的银行账户转账,避免通过微信等社交软件转账。一方面有利于核实对方身份,另一方面也有助于跟进转账信息。
加强对个人信息的保护
加强个人信息保护意识,要谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息。
对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
做好提示预防工作
多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
当然了,一定要记住,如有发现异常,一定要及时报警,这样才能将已经造成的伤害降至最低。
该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们。