当前位置: 科技先知道 » 人工智能 » 警惕AI换脸诈骗:单张照片也能被用于实时视频换脸,肉眼所见不再可信

警惕AI换脸诈骗:单张照片也能被用于实时视频换脸,肉眼所见不再可信

近日,湖北黄石警方破获了一起利用AI换脸技术进行诈骗的案件,引发广泛关注。犯罪团伙通过AI换脸技术解锁并倒卖社交账号,非法获利数十万元。这起案件再次敲响了AI换脸技术被滥用的警钟,也提醒人们,在数字时代,眼见不一定为真。

案件中,受害人王先生因加入一个炒股直播间,被诱导投资并遇到提现困难。当他尝试提现时,对方账号因涉嫌诈骗被冻结,资金也随之无法取出。警方调查发现,涉案的社交账号被解冻并重新登录,这引起了他们的注意。最终,警方在河南抓获三名嫌疑人,这些嫌疑人通过AI换脸技术制作的动态视频成功解锁了2107个被冻结的社交账号,每个账号的解锁费用在15至30元之间,共非法获利40万元。

警惕AI换脸诈骗:单张照片也能被用于实时视频换脸,肉眼所见不再可信

这一事件暴露出AI换脸技术的潜在风险。工业和信息化部的反诈专家指出,不法分子通过公开渠道获取受害人的照片或视频,再利用AI技术进行学习和模仿,实现以假乱真的换脸效果。这种技术不仅能将静态照片上的人像“活化”,还可以在实时视频通信中实现换脸,甚至模仿受害者的声音,从而骗取信任。

为了应对这一新兴的诈骗手段,有关部门正在开发AI换脸诈骗的检测与预警技术,并与手机厂商合作推出风险提醒功能,以保护用户数据安全。同时,《互联网信息服务深度合成管理规定》也要求深度合成服务提供者在合成内容中添加水印,以提示内容由AI生成或合成,并便于追溯来源。

专家提醒,个人在日常生活中应加强隐私保护,避免轻易提供生物信息,不随意公开分享含有个人特征的动图或视频,尤其在涉及转账汇款时,要通过多种方式核实确认,防止上当受骗。在这个技术迅猛发展的时代,保持警惕和理性判断显得尤为重要。

未经允许不得转载:科技先知道 » 警惕AI换脸诈骗:单张照片也能被用于实时视频换脸,肉眼所见不再可信

相关文章

My title