亲耳听到的就是真的吗?未必。网络平台上,AI声音随处可见。从“张文宏医生”推销蛋白棒视频“走红”网络被本人“打假”后,到多位配音演员称声音被AI“偷走”继而公开维权……有媒体调查发现,随着人工智能技术和语音大模型应用的发展,AI合成声音App大量出现,最快只需十几秒便可“克隆”出声音,在方便了用户的同时,AI声音滥用现象也愈发突出,不时引发争议。
得益技术助推,AI声音以其独特的魅力和便捷性快速走进人们的生活。AI模拟声音技术门槛的降低,使得用户可借助一些开源软件和平台轻松上手操作,而且随着算法不断迭代升级,在高性能设备和高精度模型的双重助力下,AI生成语音从两年前的“一眼假”已升级到如今的“真假难辨”。
AI声音广泛应用也产生了诸多负面影响。比如,短视频平台曾涌现大量AI模仿某知名企业家声音吐槽热门话题的视频,甚至出现脏话,给当事人带来极大困扰。还有一些商家利用AI模仿明星、医生的声音进行直播带货,严重误导消费者。更有甚者,不法分子通过“偷”声音,仿冒他人亲属实施诈骗,不少人因此上当受骗,损失钱财。
虚假声音信息大量传播,导致信息过载和混乱,不仅影响人们对真实信息的获取和判断,还容易引发公众误解与恐慌。如模仿专家声音发布伪健康养生知识、模仿官员声音发布虚假政策等。大量未经授权和审核的AI声音内容,破坏健康有序的网络环境,挤压优质真实内容的生存空间,严重阻碍网络文化的良性发展。
对“偷”声音乱象必须多措并举、标本兼治。当务之急是要完善相关法律法规,通过制定相关标准,明确AI声音的知识产权归属,规范AI声音的使用范围和条件。对滥用技术的行为进行严厉打击和处罚,对“偷”声音者形成有力震慑。网络平台要切实履行监管责任,加大对AI声音内容的审核力度,利用技术手段建立智能审核系统,对上传的AI声音内容进行实时监测,及时发现并撤销不良内容。健全举报机制和网络,鼓励广大用户参与监督,对于用户举报的问题及时进行处理。