全紅嬋慘遭騙徒用AI假冒帶貨賣雞蛋 大量粉絲中招下單近5萬張
隨着AI技術的普及,「複製」特定人物聲音已實現「一鍵式」操作,同時也帶來了民事侵權甚至涉嫌犯罪的法律問題。
在網絡上,奧運冠軍的「聲音」突然開始推銷農產品,知名演員的「聲音」24小時不間斷在直播間與粉絲互動……這些以假亂真的AI複製聲音正成為部分自媒體博主的「流量密碼」。據悉,依託成熟的語音大模型技術,僅需十幾秒就能「複製」任何人的聲音,當聲音能被輕易竊取和濫用,隨之而來的侵權亂象頻繁上演。
多位中國奧運明星突「帶貨賣雞蛋」惹關注 點圖放大了解更多:
以假亂真 用奧運冠軍的AI複製聲音帶貨
網傳AI仿冒全紅嬋帶貨畫面:
大家好,我是你們的嬋寶,今天有事請大家幫忙。嬋妹就想着幫助媽媽,讓家裏的生活過得更好一點,同時把老家的土雞蛋分享給粉絲們嚐嚐……
記者在抖音平台發現,在這個網名為「我是小助理吖」的博主賬號中,已發布的17件作品,內容全部是利用AI仿冒奧運冠軍全紅嬋聲音帶貨土雞蛋的視頻,其中一個視頻點讚量高達1.1萬。評論區顯示,大量粉絲誤以為這就是全紅嬋本人,紛紛下單購買鏈接中的雞蛋,該商品鏈接顯示已售出4.7萬件。今年4月,全紅嬋家人曾向媒體證實,全紅嬋並未給相關農產品代言或授權。
除全紅嬋外,奧運冠軍孫穎莎和王楚欽也遭遇了同樣的仿冒。在這個網名為「小兔真可愛」的賬號中,兩位奧運冠軍的AI複製聲音同樣在為土雞蛋帶貨。網傳仿冒孫穎莎帶貨畫面:
大家好,我是莎莎,我為嬋寶家農家土雞蛋代言。今天我就拿到了8單做福利,牠是自家散養土雞,而且是吃糧食和草長大的,營養價值特別高。
網傳仿冒王楚欽帶貨畫面:
大家好,我是王楚欽。昨天收到嬋妹私信,說他們家土雞蛋大豐收,這麼好的土雞蛋不發出去就可惜了。叫我拿給家人、粉絲們嚐嚐。
【延伸閱讀】馬來西亞民眾受旅遊片吸引 到場卻空歡喜一場 酒店:這是AI生成(點圖放大瀏覽):
為獲關注 一些博主複製名人聲音進行直播
以假亂真的聲音再加上對奧運冠軍的喜愛,該網絡博主也收穫了大量粉絲的訂單。而記者發現,AI仿冒名人的亂象遠不止帶貨,還有部分自媒體博主複製名人的聲音後進行24小時語音直播,演員靳東是被仿冒最多的對象,在這看似匪夷所思的操作背後,卻隱藏着另一個灰色產業鏈。
據網絡安全專家潘季明介紹,通過仿冒名人進行直播這種方式不僅可以誘騙粉絲打賞獲利,還可以將一個小白賬號迅速打造成上萬粉絲的賬號,從而再為後續牟利來鋪路。
合作一次 配音演員就遭「AI盜聲」困局
AI仿冒名人的行為,不僅欺騙了消費者,也侵犯了當事人的人格權。而AI複製技術濫用盯上的遠不止我們熟知的名人,記者調查發現,配音演員被AI複製侵權的案例同樣頻繁發生。他叫武揚,是一位從業十多年的職業配音演員,主要從事影視和廣告配音。今年6月中旬,武揚突然在某餐飲企業的宣傳片中聽到了自己的聲音,但這段配音並不是他錄製的,該視頻的轉發量當時已達到2800多次。
面對武揚的質問,對方承認了他們利用AI複製武揚聲音的事實,但是拒絕武揚提出公開道歉的要求,聲稱該複製聲音是由第三方公司提供,他們沒有直接責任,僅願意支付5000元(人民幣,下同)來進行賠償,武揚拒絕了這個條件,他擔心這筆錢被當成了授權費,更怕妥協後侵權會變本加厲。
與武揚的情況類似,另一位配音演員浩洋的維權也陷入了「自證循環」,侵權方不僅拒絕承認對浩洋聲音複製侵權,還試圖採取拖延的方式矇混過關。
他們就說要跟視頻製作方溝通這個事情,過半個月後回我,怎麼能證明這個聲音是您呢?我就需要再去自證一下,我是我。之後他們說再跟視頻製作方進行溝通,然後再回覆我,現在我還在等回覆。
浩洋告訴記者,從今年年初開始,他已經遭遇了多次被侵權,而他的遭遇在配音行業也並非個例。當被濫用的AI技術成為侵權行為的掩護,合作一次就能無限複製,遭到侵權的配音演員們決定不再隱忍,武揚目前已經收集了相關的證據,準備走法律程序起訴侵權方。
我還是建議同行,儘量讓侵權方付出更高的違法成本,這樣他們就不敢輕易用AI對我們進行侵權。違法成本高了,也是對我們今後這個行業的一個保護。
一鍵盜聲僅需十幾秒 AI技術應做具體限制
有人為自己的權益被侵犯而困擾,侵權者卻濫用AI技術違法牟利。那麼,AI複製聲音是如何實現以假亂真的?又是誰在為「盜取聲音」而推波助瀾?記者調查發現,在抖音、快手等網絡平台上,以「聲音複製」為關鍵詞進行搜索,能輕易找到大量相關教程視頻和軟件下載訊息。部分博主不僅詳細演示操作過程,還直接提供軟件資源。
網絡安全專家潘季明介紹,基於開源的語音大模型,只需一段清晰的語音樣本,任何人的聲音都可能在極短時間內被複製,並能被操縱說出攻擊者設定的任意內容。
AI複製聲音最大隱患是被詐騙分子利用
據潘季明介紹,除了侵犯聲音權等合法權益,AI複製聲音目前最大的隱患是被詐騙分子利用,一旦與AI換臉等技術結合,生成高度逼真的「數字人」實施詐騙,危害將非常嚴重。潘季明建議,目前相關的技術要從源頭進行相應限制:
在開源的過程當中,我們可能需要對這些開源代碼做一些使用層面上的限制,包括使用時長、應用場景上,也需要做一些具體的應用限制。
保護「聲音」 法律為AI複製劃出紅線
從「一聽就假」到「真假難辨」,AI複製技術的濫用不僅嚴重侵犯了當事者的權益,而且還涉嫌違法違規。據法律專家介紹,內地民法典將人格權獨立成編,首次以立法形式將保護「聲音」寫入其中,在第1023條中明確,對自然人聲音的保護,參照適用肖像權保護的有關規定。
北京航空航天大學法學院副教授趙精武解釋:
利用人工智能合成的這些聲音,如果能夠使得一般公眾或者相關領域的公眾,根據他的音色以及風格關聯到特定自然人,那麼就具有了法律上認定的可識別性,仍然可以構成對他人的侵權行為。我們國家的民法典1019條、1023條,都明確了相關侵權行為的認定,是沒有經過肖像權人的同意作為前提的。
趙精武介紹,任何自然人的聲音均應受到法律的保護,對錄音製品的授權並不意味着對聲音AI複製的授權,未經權利人許可,擅自使用或許可他人使用權利人的聲音構成侵權。
技術+監管 重拳整治AI技術濫用
針對目前網絡上AI複製聲音的相關內容被大量傳播,相關的平台是否也應承擔相應的責任呢?此類亂象該如何治理呢?趙精武表示:
根據民法典1197條的相關規定,平台與平台用戶承擔連帶責任有一個前提,也就是平台知道或者應當知道用戶利用了它的網絡訊息服務,實施了侵害他人合法權益的行為,並且沒有采取必要措施。這裏知道或者應當知道的判斷標準,主要是考慮到平台對網絡訊息內容的管控能力,所提供的服務性質、方式,以及引發侵權可能性的大小,平台有沒有採取預防侵權措施的技術的可能,並且有沒有相應的合理的措施。
專家建議,針對濫用AI複製聲音的亂象,平台層面要切實履行監管責任,建立健全對AI聲音的審核和侵權舉報機制,及時發現和攔截侵權、虛假、違法等不良內容。
今年3月,國家網信辦等四部門聯合發布的《人工智能生成合成內容標識辦法》,將於2025年9月1日起施行,其中明確了服務提供者應當對文本、音頻、圖片、視頻、虛擬場景等生成合成內容添加顯式標識等。另外,中央網信辦近日在全國範圍內部署開展「清朗·整治AI技術濫用」專項行動,將強化AI技術源頭治理,清理整治違規AI應用程序,推動網站平台提升檢測鑑偽能力等。