AI“声音冒充”骗局席卷全球,老人成最大受害者
最近,Techradar 发布的一份调查报告揭示了一个令人不安的现实:诈骗分子正用AI模仿亲人的声音,打电话骗钱。在美国、英国、加拿大、法国、德国和西班牙,超过1.2万名受访者参与了这项调查,结果触目惊心——近四分之一的美国人过去一年里,接到过一个“熟人”打来的电话,声音和你爸、你妈、你孩子一模一样。
更可怕的是,有24%的人坦言:根本听不出那是假的。不是他们太粗心,而是现在的AI克隆技术,连语气、停顿、习惯性口头禅都能复制。有人接到“儿子”电话说:“妈,我出车祸了,现在在医院,急需两万块,别告诉别人。”——电话那头的声音,连咳嗽的节奏都和他儿子一模一样。等你转账后回拨,才发现号码是境外的,人早没了。
低成本工具,让诈骗变得像网购一样简单
过去,骗子要模仿声音,得偷录、剪辑、反复练习。现在,只要在网上花几十美元买个AI语音克隆服务,上传一段30秒的亲人语音——比如你发在微信里的语音留言、YouTube视频里的采访片段——几秒钟就能生成一段“完美”对话。这些工具在暗网和Telegram群里明码标价,操作界面简单到连60岁老人自己都能学会。
据网络安全公司 Recorded Future 的追踪数据显示,2023年全球AI语音诈骗案件比2022年增长了78%,2024年第一季度又比去年同期再涨了42%。诈骗目标高度集中:55岁以上人群。他们不熟悉新技术,对“亲情来电”信任度高,一旦被套话,往往当场转账。报告显示,这一群体平均损失达1298美元,是年轻人的三倍以上。有些老人甚至因为被骗,导致心脏病发作,家庭关系破裂。
运营商袖手旁观?公众呼吁“技术拦阻”
很多人不知道,这些诈骗电话大多通过国际VoIP线路打入,根本不是正规运营商的号码。但问题在于,目前大多数电话系统对“来电身份”毫无验证机制。你接到的“138-XXXX-XXXX”,可能根本不是中国号码,而是从菲律宾服务器拨出的AI合成语音。
调查中,超过67%的受访者认为,电信公司“应该管”,但目前几乎没人管。一些国家已经开始行动:英国Ofcom在2024年3月要求所有运营商必须在2025年前部署STIR/SHAKEN防伪认证系统;美国FCC也强制要求主叫号码必须通过身份验证。但进展缓慢,很多小运营商还在观望。
安全专家警告:靠个人提高警惕已经不够了。就像当年短信诈骗靠“95”开头识别,现在必须靠技术拦截。一些公司已在测试“AI盾牌”系统——在通话接入时,自动分析语音波形、声纹异常、背景噪音是否自然,一旦发现合成痕迹,直接标记为高风险并提示用户:“此号码声音疑似AI生成,请挂断后主动回拨官方号码确认。”
你能做什么?别等被骗才后悔
面对这种“声音冒充”骗局,记住三条铁律:
- 绝不转账:无论对方说什么“紧急情况”,只要涉及钱,立刻挂断,自己拨家人常用号码确认。
- 设暗号:和家人约定一个只有你们知道的“安全词”,比如“今天晚饭吃什么?”——AI不可能知道。
- 举报+提醒:接到可疑电话,立刻向当地反诈中心(如中国96110)举报,并告诉身边长辈——别觉得他们“听不懂”,他们最需要你主动说。
这场“声音战争”没有硝烟,但每天都在发生。技术在进步,骗子也在进化。我们能做的,不是恐慌,而是行动——别让亲情,成为AI的猎物。