莫让AI换脸技术沦为诈骗的道具
今年4月20日,福州市某知名企业法定代表人郭先生意外接到一位“至交好友”的视频通话信息。聊天中,“至交好友”告诉郭先生,他的朋友在外地投标,需要430万元保证金,且需要对公账户过账,所以想借用其公司的账户走一下账。由于郭先生通过视频确认了对方的面孔和声音,便毫无怀疑地把430万元分两笔转账过去。事后,郭先生电话联系好友,才发现对方通过智能AI技术手段,佯装成好友对自己实施了诈骗。庆幸的是,在福州和包头警方的联动下,郭先生追回了被骗的资金336万元。(相关报道见A7版)
从警方披露的案情看,这种诈骗伎俩并没有多少创新,甚至可以说是对老套路的复制。然而,由于此种诈骗伎俩运用了AI换脸技术,诈骗分子更容易成功冒充他人。在上述案例中,当事人郭先生之所以不假思索地给冒充成“至交好友”的诈骗分子转账,根本原因就在于后者伪装的面孔太逼真,让郭先生对其深信不疑。
AI换脸,是指通过AI人工智能技术,把别人的脸换成自己的脸。AI换脸技术在初期多用于各种娱乐场景,比如歌迷把自己的脸换成歌星的脸,借此“过把歌星瘾”。不过,随着AI换脸技术的迭代更替,换脸效果愈发逼真,一些“空手套白狼”的不法之徒也看到了敛财商机,致使AI换脸技术沦为诈骗的道具。
相比于普通的诈骗手法,借助AI换脸技术实施的诈骗伎俩,具有非接触性、能精准锁定受害对象等特点,隐蔽性强,也最容易得逞。同时,AI换脸技术运用简单,可复制性强,违法成本低,更是给受害者识别真假带来了难度,令人防不胜防。因此,如何不让AI换脸技术沦为诈骗犯罪的道具,需要创新治理手段。
不让AI换脸技术沦为诈骗道具,须对这种诈骗伎俩做到露头即打。相关部门要加强跨区域、跨部门的协调联动,开展联合打击防范。在上述案例中,福州、包头两地警方联手行动,借助银行配合,成功为受害者止损336万元,充分证明了跨区域、跨部门联动协作打击防范涉AI换脸技术诈骗犯罪的重要性,值得各地各部门各行业借鉴。
打击防范涉AI换脸技术诈骗犯罪,治本之策在于以良法促善治。虽然目前我国已出台了《网络音视频信息服务管理规定》《互联网信息服务深度合成管理规定》等法规,对AI换脸技术运用有一定的约束力,但这些法规层级较低且缺乏系统性,难以适应打击防范涉AI换脸技术诈骗的实际需要。相关部门应坚持“急在治标”与“重在治本”并举的导向,在及时完善现有法律规范的同时,着眼长远地制定出统一的上位法,从而用严密完善的法律,将AI换脸技术的运用规范在法制轨道上,不再让其沦为诈骗犯罪的道具。
需要注意的是,涉AI换脸技术的诈骗伎俩能够轻易得逞,一个重要原因在于诈骗分子掌握了受害者好友的人脸、声音等个人信息。对此,公众要增强保护个人人脸、声音等敏感信息的意识,充分认识到泄露此类个人信息的潜在风险;监管部门亦应强化监管,以法律责任的严肃追究,倒逼采集人脸、声音等个人信息的商家或相关机构建立起技术防范与依法管理相得益彰的个人信息安全格局,让诈骗分子利用AI换脸技术实施诈骗不再具备条件。(万周)
http://www.news.cn/tech/20230525/ea3a01c5b3bf4baaa725bf2d4d06bbcd/c.html
编辑:萧培 审编:AD
1、凡本网来源注明“今日中国网”(域名ChinaTodays.CN)的所有文章和图片作品,版权均属于今日中国网(ChinaTodays.CN),未经本网授权,任何单位及个人不得转载、摘编或以其它方式使用上述作品。已经本网授权使用新闻稿件和图片作品的,应在授权范围内使用,并注明“来源:今日中国网(ChinaTodays.CN)”。违反上述声明者,本网将追究其相关法律责任。
2、凡本网注明 “来源:XXX(非今日中国网CPUCN.CN)”的文章和图片作品,系我方转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
3、如因新闻稿件和图片作品的内容、版权和其它问题需要同本网联系的,请在15个工作日内告知我方。
4、联系方式:今日中国网(ChinaTodays.CN) 电子邮件:china-gy@foxmail.com