因为接了好朋友突然打来的视频,短短十分钟就被骗走 430 万,这可不是危言耸听,而是刚刚发生不久的一起案件,犯罪分子利用智能 AI 技术实施电信诈骗。这条视频至关重要,真的关乎我们每个人的钱包,所以一定要看完,也要转发给更多人。
那天中午,福州的郭先生突然接到好朋友的视频通话请求,两人短暂聊天后,好朋友告知郭先生,自己的朋友在外地投标需要 430 万元保证金,且需要公对公账户过账,所以想借用郭先生公司的账户走一下账。
好友还向郭先生要了银行卡号,声称已把钱打到郭先生账户上了,并将银行转账底单的截图通过微信发给郭先生。
基于对视频聊天的信任,郭先生未核实钱是否真的到账,就在 11 点 49 分前后分两笔将 430 万块钱转给了对方。钱款转账后,郭先生给好朋友发消息说事情办妥了。
但让他没想到的是,好朋友回消息是个大大的问号,郭先生赶紧给好朋友打电话,对方说根本没这回事。
这时郭先生才意识到遭遇了高端骗局,对方通过智能 AI 换脸技术佯装成自己好朋友对自己实施了诈骗。报警后,郭先生说自己之所以受骗,主要就是骗子打来的视频通话是关键,正因为在视频中确认了朋友的面孔和声音,所以放下了戒备,被骗子钻了空子。
目前 AI 技术诈骗主要有两种方式,其一为声音合成,骗子通过骚扰电话录音等提取某个人的声音获取素材后进行声音合成,从而能用伪造的声音欺骗受害者。其二是 AI 换脸,因人脸效果更易取得信任,骗子用 AI 技术换脸可伪装成任何人,通过视频方式进行消息确认。其三是转发微信语音,骗子盗取账号后可向其好友借钱,为取得信任,他们会转发之前的语音进而骗取钱款。尽管不少聊天工具没有语音转发功能,但犯罪分子可通过提取语音文件或安装非官方版本插件实现语音转发。
那面对如此高科技的换脸 AI 诈骗,是不是就没办法了呢?也不是,教大家一招其实不难,就是在跟朋友视频时,如果对方提出借钱、转账等与钱有关的要求,可以让他举起手指在脸前晃一晃。
如果是 AI 换脸,这时脸上的特效就会出现扭曲变形,可帮助大家识别视频真假。当然更关键的是,挂断后回拨给朋友确认后再帮忙也不迟。
所以要提醒大家,面对花样不断翻新的诈骗,尤其是 AI 诈骗,要提高防范意识,不轻易向他人提供人脸、指纹等人体生物信息,网络转账前要通过多种渠道核实确认对方身份。
不要轻易透露自己的身份证、银行卡、验证码等信息,如果不慎发现被骗或遇到可疑情况,赶紧注意保护证据并立即拨打 96110 报警,赶紧记住了!
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/473157.html