继此前“10分钟被AI换脸骗走430万元”事件引发关注之后,5月22日,又一起AI换脸诈骗发生。这次金额达到132万,且整个诈骗过程时间更短,只有9秒钟。
5月22日,安徽安庆的何先生接到熟人视频电话,让他帮忙转一笔账。但9秒之后,对方以“在开会”为由,迅速挂断了电话,还称“微信和电话不能说,加一下QQ”。
(资料图片)
“因为打了视频电话,又是熟人,我就没多想,就转账了”。事发时,何先生放松了警惕。发现被骗之后,何先生迅速报警,专案民警第一时间冻结相关账户,连夜赶赴北京市抓获3名涉诈嫌疑人,追回何先生被骗的132万元。
了解到,目前AI换脸技术不仅被运用于电信诈骗,还出现在明星直播带货中。据此前网友反映,有主播盗用明星的脸进行商业带货,“点进直播间一看,‘迪丽热巴’居然在直播卖货”,定睛一看才识出破绽。
近年来,AI技术的发展使得网络诈骗的手段不断升级,AI诈骗也随之兴起。AI诈骗指的是利用人工智能技术对受害者进行诈骗的行为。
AI诈骗的手段主要包括以下几种:
1. 仿冒身份:通过AI技术制作虚假的人脸、语音、文字等信息,以冒充受害者的身份进行诈骗。
2. 智能推销:通过分析收集的数据,利用AI自动发送有针对性的诈骗信息,让受害者误以为是真实的推销。
3. 语音诈骗:通过AI模拟真实的语音,让受害者误以为是正常的电话,从而进行欺诈。
4. 金融诈骗:利用AI技术分析用户的交易数据,推送虚假的理财产品或伪造的投资机会,引诱用户上当受骗。
如何防止上当受骗呢?
1. 加强安全意识:用户应当时刻保持警惕,不轻信来路不明的信息,避免点击和下载可疑的链接和文件。
2. 采用多层次的安全保护措施:如加密网络连接、设置复杂密码、安装防病毒软件、定期备份数据等。
3. 针对特定类型的诈骗,采取相应的防范措施:如在电话接听阶段先核实对方身份,对于金融诈骗要加强理财知识和识别伪造证件的能力等。
4. 政府和企业应当加强监管,加强对AI诈骗的研究,及时发现和防范相关风险。
总之,AI技术的滥用可能会给人们带来不可预知的风险。我们需要增强保护自己的意识,同时加强对AI技术的监管,以保护我们的财产和隐私不受侵犯。
关键词: