英国成年人中28%曾遭遇AI拟声诈骗,46%对此一无所知
随着AI技术的发展,电信诈骗分子开始利用AI换脸、AI拟声等手段实施诈骗。Starling银行针对3000多名英国成年人进行的调查显示,AI拟声诈骗已经成为英国的一个普遍问题。这种技术能够通过AI从短短三秒的音频中“创造”出受害者亲友的声音。
调查结果显示,超过四分之一的英国成年人(28%)在过去一年中成为了声音克隆骗局的目标。更令人担忧的是,近一半的人(46%)对AI拟声诈骗一无所知,这使得他们在成为目标时更易受骗。
诈骗分子通过社交平台上超过3秒的语音内容,找到当事人的家庭成员,并利用克隆的声音拨打电话、发送语音信息或语音邮件,利用受害者的心理来骗取钱财。调查中,每10人中就有近1人(8%)表示在这种情况下他们会发送任何需要的信息,即使电话看起来很奇怪。
Starling银行建议人们不要仅凭声音判断,而是与亲人商定一个暗语或短语来核实身份。报道指出,英格兰和威尔士的金融欺诈犯罪呈上升趋势,去年增长了46%。
此外,2022年全年,美国老年人因诈骗损失了16亿美元,其中许多诈骗利用AI技术克隆熟人的声音。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
走过万里,足下留香...