IT之家 3 月 15 日消息,据 Techradar 报道,一项新研究对深度伪造语音诈骗的增多发出了严重警告,越来越多消费者表示接到过模仿熟人声音的可疑来电。Hiya 公司针对美国、英国、加拿大、法国、德国和西班牙六国超 1.2 万名消费者展开的一项新调查显示,这类事件已不再罕见。报告发现,四分之一的美国人在过去 12 个月内接到过深度伪造语音来电,另有 24% 的人表示,自己无法可靠区分电话中的人工智能语音和真人声音。报告指出,生成式 AI 工具的普及加速了所谓的“AI 武器化”。Hiya 创始人兼首席执行官亚历克斯 · 阿尔加德表示:“诈骗分子正利用 AI 克隆声音,对易受骗人群实施盗窃,而不法分子的行动速度远超传统网络防御系统。我们不能指望普通人仅凭一己之力就能识破人工智能。我们正处在一场军备竞赛中,诈骗分子把 AI 当作武器,这意味着运营商必须用 AI 作为盾牌。”如今,诈骗分子模仿他人声音的成本和难度大幅降低,这些深度伪造冒充行为常伪装成受害者的亲属或信任的联系人。一旦受害者信以为真,就可能遭遇金融诈骗或身份盗窃。受访美国人平均每周接到 9.9 通骚扰来电,全年超过 500...
