打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
AI 语音诈骗横行,只需 3 秒钟的音频就能模仿任何人的声音

IT之家 5 月 2 日消息,网络安全公司 McAfee 最新发布的一份报告显示,越来越多的人被人工智能(AI)语音诈骗所骗。调查发现,10% 的成年人曾经被这种诈骗方式针对,另外 15% 的人认识有人被骗过。

令人震惊的是,AI 只需要三秒钟的音频就能模仿任何人的声音。这样一来,不法分子就可以利用这种技术给受害者留下假的语音邮件,或者冒充他们的好友打电话给他们。在受害者中,有 77% 的人表示在诈骗中损失了钱财,其中三分之一的人损失了超过 1000 美元(IT之家备注:当前约 6930 元人民币),还有 7% 的人损失了 5000 到 15000 美元之间的大笔钱款。

McAfee 首席技术官 Steve Grobman 称:“人工智能带来了难以置信的机会,但任何技术都有可能被恶意使用。这就是我们今天所看到的,AI 工具的获取和使用变得越来越容易,也让网络犯罪分子能够以更加难以识破的方式进行诈骗。”

那么,你该如何保护自己不受这种诈骗的侵害呢?McAfee 给出了一些建议,首先,其建议你和你的联系人建立一个暗号,这样你们就可以用暗号来确认对方是真人而不是 AI 伪造的。另一个建议是质疑来源,如果你对来电有所怀疑,你应该立刻挂断电话,并用你保存的电话号码回拨给对方,这样你就大概率可以避免被骗。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
3秒即可克隆人声 母亲险些被AI“女儿”诈骗100万美元
关于AI诈骗,我们必须提高警惕!
AI语音克隆诈骗银行高管,取2.2亿如探囊取物
陈根:3秒实现语音合成,说的和真的一样?
“AI孙燕姿”爆火后,Meta发布通用语音生成AI:可合成6种语言,支持多种语音功能
【实用】骗术升级!当骗子用上AI技术后,该咋办......
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服