近日,一些短視頻平臺涌現了大量某知名企業家吐槽的視頻。在視頻中,該企業家對堵車、調休、游戲等熱門話題進行了調侃和銳評,甚至還有不雅詞匯穿插其間,引發網友熱議。事實上,那些吐槽視頻并非該企業家本人在發聲,而是由網友利用AI軟件采集該企業家原音生成的配音,但逼真的效果讓不少人信以為真。(10月28日《工人日報》)
聲音看不著、摸不到,其權益屬性很容易被忽視。從法理上看,聲音權益具有人身專屬性,是人格權的一部分。也就是說,聲音和肖像一樣,是識別個人身份的重要依據。任何自然人的聲音都應受到法律的保護。然而,隨著技術門檻降低,從AI“換聲”到“偷聲”,侵權問題正變得越來越復雜。現在,普通人僅用少量的樣本數據,比如文本、音頻,就能借助簡便易用的深度合成技術,模糊真實信息和虛假信息的邊界。
可怕的是,AI偷聲會產生嚴重的“次生危害”。丑化、篡改公眾人物的聲音,并以營利為目的濫用其聲音,不但會侵犯他人的名譽權,還會侵犯他人的財產權。如果犯罪分子利用偷來的聲音偽裝成他人的親朋好友,在騙取信任后實施網絡詐騙,后果更是不堪設想。當司法實踐越來越深入,有一個共識愈加清晰:即使對錄音制品予以授權,也不意味著對聲音AI化的授權。而未經授權把他人的聲音AI化,就可能侵犯他人的聲音權。
事實證明,治理AI偷聲,需要對監管“加大音量”。在第一道關口,AI語音應用工具的提供方不能置身事外。譬如,向用戶定期公開聲音信息使用情況,賦予權利人查閱、復制、更正與監督等權利。只有對源頭素材及相關生成內容強化監管,精準溯源、精準預警才能落在實處。在第二道關口,平臺運營方要通過完善責任清單、建立甄別和追蹤機制,提升處置聲音侵權行為的能力。在第三道關口,監管部門應完善技術監管措施,協同對短視頻等聲音侵權的重災區實施動態監控。
責任編輯:賀鵬云