5月24日,中国互联网协会发布公告称,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频进行诈骗、诽谤的违法行为屡见不鲜。广大公众需提高警惕,加强防范。事实上,近段时间AI行业发展乱象引发关注,如何保障人工智能的健康、可持续发展正被业界广泛探讨。
《证券日报》记者连日来通过走访调查发现,“AI换脸”技术复杂度逐步降低且质量迅速提升,广大公众不容易辨别真假。同时,该类形式诈骗已蔓延至金融行业中,已有部分券商提示投资者谨防此类高仿真诈骗手段。
(资料图片)
受访专家普遍认为,“AI换脸”技术的滥用给金融机构敲响了警钟,其复杂性、隐蔽性、突发性对机构的科技识别及运用提出了更高的要求。
“AI换脸”技术
成本不断下降
如今,打开搜索平台和社交媒体,各类“AI换脸”销售及教程比比皆是。《证券日报》记者以购买者身份咨询一位销售“AI换脸”服务的公司,该公司客服称,视频换脸的价格根据分辨率和视频长度来确定,按每30秒一条来计算价格。根据对方提供的清单,预充3000元可以获得6条视频、预充5000元可获得20条视频、预充3万元可获得3000条视频,充值越多单价越低。
在对方展示的教学视频中,使用者仅需要上传一张脸部照片,即可通过简单的步完成“一键换脸”。客服称,换脸后的视频可以绑定视频号等正规直播间。记者观察其提供的成片效果,已是真假难辨。
北京大成律师事务所高级合伙人、香港城市大学法律学院访问学者肖飒认为:“‘AI换脸’成本降低,会带来技术的滥用,各方应致力于规范技术发展。”
“‘AI换脸’技术相关成本涉及技术复杂度、所获取人脸质量和数量、算法和模型选择等。尽管‘AI换脸’技术成本有所差异,但总体而言呈下降趋势。其中,随着算法和模型等技术的进步,‘AI换脸’技术复杂度会进一步降低,且换脸质量随之提升。”中关村科金金融事业部技术专家张巍向《证券日报》记者解释道。
索信达控股AI创新中心主任邵俊告诉《证券日报》记者:“目前‘AI换脸’技术已较为成熟,且成本不断下降,容易被不法分子所使用。值得关注的是,被打包销售的个人信息是‘AI换脸’诈骗中所需投喂的‘原料’,这种侵犯个人隐私及售卖信息的行为需严厉打击。”
防范不法分子利用新技术
实施金融诈骗
记者在调查中了解到,当前“AI换脸”诈骗正向金融行业蔓延,已有券商发布了提示性公告。
例如,太平洋证券发布公告称,有不法分子利用“AI换脸”和声纹等新技术冒充金融机构从业人员实施诈骗。此类事件中,不法分子利用以假乱真的技术冒充与投资者有业务往来的金融机构从业人员或其他可信人员身份,通过直播加群引导,浏览假冒金融机构网站和下载仿冒的官方App等各类方式,获取投资者的信任、骗取投资者的钱财。
太平洋证券表示,投资者务必提高警惕,识别“AI换脸”等高仿真诈骗手段,切勿未经多方证实随意相信微信朋友视频救急、金融人员提供的稳赚新股申购或高收益理财产品机会等;更不要盲目支付会员费或授权他人代理操作账户管理及交易事项。
那么,应对“AI换脸”等新型诈骗手段,投资者该如何防范风险?易观分析金融行业高级咨询顾问苏筱芮对记者表示:“目前一些金融从业人员与金融客户借助企业微信、个人微信等社交渠道,通过一对一的方式建立联系、进行业务维护,容易被不法分子利用‘AI换脸’诈骗。建议个人与机构员工通过微信等软件联系时获取的信息,尤其是涉及投资、转账等资金类敏感信息,需要再通过机构官方App、官方热线等渠道进行交叉核实。”
“个人信息泄露是精准诈骗的根源。个人应保管好自身信息,不要随意向陌生人透露或授权;在使用社交平台时,要注意设置隐私权限;谨慎访问未知网址,谨慎安装不明来源App,谨慎打开可疑文件,保持手机系统和软件更新。”浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林告诉记者。
记者在调查过程中也发现,目前在证券开户、业务办理、银行贷款等方面,金融机构科技识别及运用较为全面,有助于进一步消除风险。
一位金融机构相关负责人表示:“当前金融系统人脸识别对于防范‘AI换脸’做得较为全面,但凡是人脸识别的场景,往往都需要视频者全方位展示,如面部、眨眼、张嘴等,这些是判断是否为‘AI换脸’较为有效的路径。”
另有金融机构相关负责人对《证券日报》记者表示:“‘AI换脸’技术并非是新生事物,此前机构在贷前审核时,也曾遇到过客户用‘换脸’技术骗贷。对于机构而言,在贷前生物识别中,人脸识别仅是一部分,审核流程中还有多重识别、交叉验证及多模态生物防伪等,均可验证其是否为AI脸或是被‘换脸’。”
业内人士普遍认为,“AI换脸”本身在机构放贷及其他业务方面不太容易蒙混过关,更多的是敲响警钟,提醒机构进一步提高科技识别及运用能力,防范相关风险。
关键词:
责任编辑:Rex_26