IT之家 03月11日 15:37
《消费者报告》:热门语音克隆工具缺乏防欺诈滥用安全防护措施
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

《消费者报告》最新研究揭示,市场上多款热门语音克隆工具缺乏有效的安全防护机制,容易被滥用于欺诈活动。该报告调查了Descript、ElevenLabs等六家公司的语音克隆产品,发现仅Descript和Resemble AI采取了有效措施防止滥用。其他公司仅依赖用户自我声明,安全措施不足。这使得AI语音克隆工具可能加剧冒名顶替诈骗的风险,企业应采取更严格的安全措施。

🛡️《消费者报告》研究表明,多款热门语音克隆工具未能有效防止欺诈或滥用。

🗣️在被调查的六家公司中,仅Descript和Resemble AI采取了措施防止工具被滥用,其他公司仅要求用户勾选确认自己拥有克隆声音的合法权利。

🚨《消费者报告》政策分析师指出,缺乏安全措施的AI语音克隆工具可能加剧冒名顶替诈骗的风险。

IT之家 3 月 11 日消息,《消费者报告》(Consumer Reports)发布的一项最新研究显示,市场上的多款热门语音克隆工具未能设置有效的安全防护机制,以防止欺诈或滥用行为的发生。

IT之家注意到,《消费者报告》对来自六家公司的语音克隆产品进行了调查,这些公司包括 Descript、ElevenLabs、Lovo、PlayHT、Resemble AI 和 Speechify。研究团队重点考察了这些产品是否具备能够阻止恶意用户未经授权克隆他人声音的机制。然而,调查结果显示,仅有 Descript 和 Resemble AI 两家公司采取了措施以防止工具被滥用。其他公司仅要求用户勾选确认自己拥有克隆声音的合法权利,或进行类似的自我声明。

《消费者报告》政策分析师格蕾丝・盖迪(Grace Gedye)指出,如果缺乏足够的安全措施,AI 语音克隆工具可能会极大地加剧冒名顶替诈骗的风险。她在声明中表示:“我们的评估表明,企业可以采取一些基本措施,增加未经授权克隆他人声音的难度,但遗憾的是,部分公司并未采取这些措施。”

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

语音克隆 安全风险 消费者报告 AI欺诈
相关文章