上传一张静态照片,即可生成动态视频;只需几秒语音,就能克隆声音……这不是科幻电影,而是发生在身边的真实事件,“AI换脸”正成为侵权违法的重灾区。




AI诈骗形式多样


换脸、变声、对口型

“你以为在和朋友亲人视频聊天,其实是骗子使用的‘AI换脸’技术,让别人的嘴能够‘对口型’。”宁夏回族自治区公安厅刑侦总队副总队长、反诈中心负责人吴克刚介绍,如今,“AI换脸”技术不仅限于静态照片的活化,还能在即时视频通信中实时换脸。虽然需要采集大量不同角度的照片进行模型训练,但一旦成功,便可以假乱真。



新型AI诈骗主要类型



语音合成诈骗,不法分子利用AI技术,合成受害人亲友或熟人的声音,让受害人误以为是亲友或熟人需要帮助,进而实施电话诈骗;图像生成诈骗,不法分子通过AI技术,生成虚假的照片或视频,制造出受害人亲友紧急且合理的情景,从而获取个人信息,骗取钱财;智能客服诈骗,不法分子利用AI技术,制作智能客服系统,通过语音或文字同受害人交流,诱骗受害人提供个人信息或进行转账操作;AI情感诈骗,不法分子运用AI训练面向网聊的大语言模型,通过伪造场景、声音与受害人建立情感关系,进而获取个人信息;共享屏幕诈骗,不法分子以“提升信用卡额度”“航班延误退费”“赠送礼品”等为借口,向个人发送短信或拨打电话,诱导受害人下载指定软件,并开启软件的“共享屏幕”功能,就可以“实时监控”受害人手机、电脑屏幕,同步获取个人银行账户、口令、验证码等重要信息,从而盗取银行卡资金。



AI诈骗危害


受害者身份更广泛、多元

新型AI诈骗有以下危害:造成经济损失,新型AI诈骗具有针对性强、高度逼真等特征,普通群众短时间内难以分辨,很容易上当受骗、遭受经济损失,甚至会给家庭带来沉重的经济负担;发生信息泄露,新型AI诈骗往往能获取受害人的个人信息,包括身份证号、银行账户、人脸、指纹等,进而滥用这些信息从事非法活动,导致受害人信息泄露,身份被盗用,引发潜在的法律风险;造成心理创伤,遭受新型AI诈骗,除了面临经济损失,受害人还可能产生焦虑、自责、抑郁等情绪,造成严重的心理创伤;危害社会治安,如果新型AI诈骗案件变多,容易让群众对社会产生不信任感,甚至造成恐慌情绪,有些受害者也因无法承担损失,走上违法犯罪道路。



如何防范


保护个人信息、学习识别方法

防骗建议:视频通话时,让对方做出指定动作,比如眨眼3次、摸摸鼻子,或者让对方用手指或其他遮挡物在脸前晃动,如画面出现延迟或者异常扭曲等不自然的微小变化,那对方很可能正在使用“AI换脸”技术。在与对方的沟通中,也可以问一些只有对方知道的问题,比如生日、电话号码、喜好等,来验证对方身份的真实性。


我们也应该提高安全防范意识,防止个人脸部信息被非法获取利用。警方提示,不轻信他人,不贪图小便宜。妥善保管个人信息,把好个人信息保护的第一道关。在非必要情况下,不向陌生人提供身份证号码、工作单位、家庭住址、职务等重要信息,不将身份证照片或号码保存在手机中,尽可能避免将人脸、照片、声音、指纹等留存到网站和小程序上。在日常生活中,加强对人脸、声音、指纹等生物特征数据的安全防护,做好个人手机、电脑等终端设备的软硬件安全管理,不登录来路不明的网站,以免感染木马病毒。另外,对可能进行声音、图像甚至视频和定位等信息采集的应用,做好授权管理,不轻易给他人收集个人信息的机会,也能在一定程度远离“AI换脸”诈骗。


内容据《人民日报》相关报道
©2025 东莞报业传媒集团