Amazon Alexa重現親友聲音 追憶逝者還是助長行騙?

撰文:01周報
出版:更新:

科技巨頭亞馬遜(Amazon)上周舉辦了年度開發者大會re:MARS,介紹在機器學習、自動化、機械人及太空中的AI應用研發。會上播放了一條示範短片。一名兒童向熊貓設計款式的兒童主題版本智能音助理問道:「Alexa,祖母可不可以繼續說《綠野仙蹤》的故事給我聽?」Alexa用它預設的聲線回答「OK」,之後就換上了另一把聽起來較接近人類的聲音,朗讀膽小獅尋求自信的情節。

Alexa首席科學家Rohit Prasad在會上介紹,Alexa只需要不足1分鐘的錄音內容,就能夠模仿某個聲線:「我們實現這一點的方式是,將問題定義為一個語音轉換任務,而不是一條語音生成路徑。」

亞馬遜過去已經開發了聲音合成技術,可以令Alexa模仿籃球明星奧尼爾(Shaquille O’Neal)或喜劇女演員Melissa Mccarthy的聲線說話。當時的做法比較落後,需要有人長時間錄下大量的音訊。相比之下,Alexa這項新的聲音模仿功能,據稱是公司基於近年文字語音轉換技術進展,能夠以較少的數據就能生成高質、像真的聲線。

Alexa首席科學家Rohit Prasad在re:MARS 2022上介紹,公司正研發AI重現用家已逝親友聲線,希望藉此加深AI語音助理的「人性」。(Amazon re:MARS 2022 YouTube片段截圖)

例如,他聲稱,這項AI技術進展可以讓消費者與已逝親友維持「持久的個人關係」:「雖然AI無法消除失去至親的痛苦,但它絕對可以令記憶長存……毫無疑問,我們生活在AI的黃金時代,我們的夢想和科幻小說正在成為現實。」目前,亞馬遜發言人拒絕透露這項新功能會在何時推出供消費者使用。

亞馬遜是次公布Alexa的最新功能後,在網絡上也引起不少負評,從社交媒體Twitter上可見,用戶批評這功能「令人不安」、「有病」,或者他們不想要這種功能之類。

這種不安感的源頭,有可能是像澳洲科廷大學(Curtin University)互聯網研究教授Tama Leaver指出,在這類應用上,人類和機器的界線開始模糊:「你不會記得,到底是與亞馬遜的數據收集服務交談,還是與你的祖父母或某位已故親友的聲音交談。某程度上,它有點像《黑鏡》(Black Mirror)的劇情。」

有學者指出,以AI重現聲線牽涉詐騙風險、知情同意、擁有權等安全和倫理問題,在這種技術普及前應及早思考。(Replica)

Leaver還指出,Alexa的新功能,在製作上有知情同意的問題。他說,如此使用逝者的數據「既令人毛骨悚然,也有違倫理,因為逝者本身或許沒有想過,自己的數據會在死後被人如此利用」。美國亞里桑那州大學計算機科學教授Subbarao Kambhampati也同意:「對於悲痛的人,這科技實際上可能有所幫助,就像我們回顧和觀看逝者的生前影片。但這樣也會帶來嚴重的道德問題,例如在沒有死者同意的情況下這樣做可以嗎?」

有些學者和專家則指出,AI仿真聲線可能有安全和道德問題。在安全方面,有人擔心這種技術可被用作冒充詐騙。保安公司SocialProof Security行政總裁Rachel Tobac提醒,社會並未準備好迎接這種聲音科技被不法份子有機可乘的風險:「如果網絡犯罪份子可以透過少量語音樣本,輕鬆而可靠地複製另一個人的聲音,他們就可以使用那語音樣本來冒充其他人,可能會造成欺詐、數據和賬戶被盜竊等。」

詳細內容請閱讀第323期《香港01》電子周報(2022年6月27日)《Amazon Alexa重現親友聲音 追憶逝者還是助長行騙?》。按此試閱電子周報,瀏覽更多深度報道。