随着智能AI的兴起
连带换脸换声技术也越来越发达
从雷军被AI换声吐槽假期
到普通人被10秒AI视频诈骗
本是科技进步璀璨结晶的AI技术
如今却成为诈骗分子作恶的手段
“30秒的音频就可以帮你克隆声音”
“24小时内合成相似度高达90%音频”
社交平台也随处可见的几秒换脸应用
价格低廉,作品却没有任何提示和标记
足以“以假乱真”
真实案例一
真实案例二
张先生在外面办事时,网名“一帆风顺”的陌生人添加其微信。对方告知,自己是张先生公司的负责人陈总,这会临时办点私事,不太方便接电话,才用微信小号加了他的微信,要他取10万元现金送到公司楼下,自己办完私事会尽快归还。正当张先生感到疑惑时,他接到了“陈总”打来的视频电话。接通后,张先生看到手机里的“陈总”正坐在一间会议室里,没有说话,10秒钟后,视频电话被对方挂断。尽管对方未发一言,但看到对方的相貌神态与自己的领导完全一样,张先生还是按照对方发来的信息,将10万元转到了相应账户。
谁知,回到单位后,张先生得知陈总上午一直在自己的办公室没有出去,遂赶紧找陈总询问,对方表示自己并没有给他发过相关信息。张先生这才意识到自己被骗了,于是赶紧报案。
重点受骗人群
留学生家长及老年人群体
第一,选择可信平台,不要随意下载未经官方认证的App,即便其提供免费通话或其他看似诱人的功能,也可能暗藏陷阱。
编辑:兰 芳
编审:梓 杉
签发:悟 空