央视揭AI仿声乱象,1秒克隆声音技术滥用风险加剧
【#央视揭AI仿声乱象#,1秒音频即可克隆声音,技术滥用风险加剧】
据央视新闻消息,近日总台记者跟随网络安全专家做了一场声音克隆实验。记者录制了一句话的音频,专家随意截取其中1秒作为克隆样本,仅几秒后,记者的克隆声音便朗读出一段从未录制过的文字,音色、语调与原声高度相似。专家介绍,后期对语速、语气微调即可以假乱真。随着AI克隆声音技术使用门槛持续降低,技术滥用风险正不断加剧。
据新华社“新华视点”调查,AI声音滥用现象已十分突出。在短视频平台,以“AI克隆声音”为关键词可检索出大量明星翻唱、新闻播报、吐槽点评等视频,部分包含不雅词汇。此前,某知名企业家声音被AI模仿吐槽堵车、调休等,甚至出现脏话,当事人回应称“挺困扰,希望大家都不要‘玩’了”。张文宏医生、胖东来创始人于东来等名人也曾遭遇声音被AI合成用于直播带货或误导性文案。此外,不法分子通过“AI换声”仿冒老人孙子,以“打人须赔偿”为由诈骗2万元;全国已发生多起类似案件,有的诈骗金额达上百万元。
声音是如何被“偷”走的?专家介绍,AI依靠深度学习算法,从采集的声音样本中提取频率、音色、语速等特征,记录为数学模型再合成。随着算法升级,AI语音从“一眼假”变为“真假难辨”。大量App可进行AI合成声音,最快只需十几秒,记者实测某付费App无需授权即可生成名人声音。
在法律层面,个人声音中的声纹信息属于敏感个人信息。2024年4月,北京互联网法院宣判全国首例“AI声音侵权案”,明确自然人声音权益保护范围可及于AI生成声音。近年来,有关部门出台《生成式人工智能服务管理暂行办法》等规定,划定红线。专家建议细化规则、强化平台审核,个人也需提高生物特征信息保护意识。

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。
网址:央视揭AI仿声乱象,1秒克隆声音技术滥用风险加剧 https://m.mxgxt.com/news/view/2081650
相关内容
一键“变脸”背后暗藏诸多风险,AI换脸技术滥用乱象调查一键“变脸”背后暗藏诸多风险 AI换脸技术滥用乱象调查
一键“变脸”背后暗藏诸多风险 AI换脸技术滥用乱象调查
整治AI技术滥用,中央网信办出手了
声音克隆技术:五秒复制你的独特声线
中央网信办部署开展“清朗·整治AI技术滥用”专项行动
AI配音黑科技|用ElevenLabs克隆明星声线,广告转化率飙升
深声科技—ai数字人与声音克隆技术引领者
聚焦造假、谣言、低俗等 中央网信办专项整治AI技术滥用
转发支持!中央网信办部署开展“清朗·整治AI技术滥用”专项行动
