当前位置:首页 > 百科大全 > 正文

这家银行表示,“数百万”人可能成为人工智能语音克隆骗局的目标

  

  

  英国一家银行警告称,“数百万”人可能成为利用人工智能克隆声音的骗局的受害者。

  只提供在线贷款的斯特林银行(Starling Bank)表示,欺诈者能够利用人工智能从一个人发布在网上的视频中找到的三秒钟音频复制出一个人的声音。

  然后,诈骗者可以识别出受害者的朋友和家人,并使用人工智能克隆的声音拨打电话要钱。

  斯特林银行周三表示,这些类型的骗局有可能“让数百万人出局”。

  它们已经影响了数百人。

  该银行上月与砂浆研究公司(砂浆Research)对3000多名成年人进行的一项调查显示,超过四分之一的受访者表示,在过去12个月里,他们曾成为人工智能语音克隆骗局的目标。

  调查还显示,46%的受访者不知道这种骗局的存在,8%的人会按照朋友或家人的要求汇款,即使他们觉得电话看起来很奇怪。

  斯特林银行首席信息安全官丽莎·格雷厄姆说:“人们经常在网上发布自己声音的录音,却没有想到这会让他们更容易受到诈骗者的攻击。”

  该银行鼓励人们与亲人设置一个“安全短语”——一个简单、随机的短语,容易记住,与其他密码不同——可以用来在电话中验证他们的身份。

  贷款人建议不要通过短信分享安全短语,这可能会让骗子更容易找到。

  如果以这种方式共享,则该消息应在其他人看到后立即删除。

  随着人工智能越来越擅长模仿人类的声音,人们越来越担心它可能会伤害人类,比如帮助犯罪分子进入他们的银行账户和传播错误信息。

  今年早些时候,生成式人工智能聊天机器人ChatGPT的制造商OpenAI公布了其语音复制工具“语音引擎”,但当时并未向公众开放,理由是“有可能滥用合成语音”。

有话要说...