Amazon Alexa重現親友聲音 追憶逝者還是助長行騙?
科技巨頭亞馬遜(Amazon)上周舉辦了年度開發者大會re:MARS,介紹在機器學習、自動化、機械人及太空中的AI應用研發。會上播放了一條示範短片。一名兒童向熊貓設計款式的兒童主題版本智能音助理問道:「Alexa,祖母可不可以繼續說《綠野仙蹤》的故事給我聽?」Alexa用它預設的聲線回答「OK」,之後就換上了另一把聽起來較接近人類的聲音,朗讀膽小獅尋求自信的情節。
Alexa首席科學家Rohit Prasad在會上介紹,Alexa只需要不足1分鐘的錄音內容,就能夠模仿某個聲線:「我們實現這一點的方式是,將問題定義為一個語音轉換任務,而不是一條語音生成路徑。」
亞馬遜過去已經開發了聲音合成技術,可以令Alexa模仿籃球明星奧尼爾(Shaquille O’Neal)或喜劇女演員Melissa Mccarthy的聲線說話。當時的做法比較落後,需要有人長時間錄下大量的音訊。相比之下,Alexa這項新的聲音模仿功能,據稱是公司基於近年文字語音轉換技術進展,能夠以較少的數據就能生成高質、像真的聲線。
例如,他聲稱,這項AI技術進展可以讓消費者與已逝親友維持「持久的個人關係」:「雖然AI無法消除失去至親的痛苦,但它絕對可以令記憶長存……毫無疑問,我們生活在AI的黃金時代,我們的夢想和科幻小說正在成為現實。」目前,亞馬遜發言人拒絕透露這項新功能會在何時推出供消費者使用。
亞馬遜是次公布Alexa的最新功能後,在網絡上也引起不少負評,從社交媒體Twitter上可見,用戶批評這功能「令人不安」、「有病」,或者他們不想要這種功能之類。
這種不安感的源頭,有可能是像澳洲科廷大學(Curtin University)互聯網研究教授Tama Leaver指出,在這類應用上,人類和機器的界線開始模糊:「你不會記得,到底是與亞馬遜的數據收集服務交談,還是與你的祖父母或某位已故親友的聲音交談。某程度上,它有點像《黑鏡》(Black Mirror)的劇情。」
Leaver還指出,Alexa的新功能,在製作上有知情同意的問題。他說,如此使用逝者的數據「既令人毛骨悚然,也有違倫理,因為逝者本身或許沒有想過,自己的數據會在死後被人如此利用」。美國亞里桑那州大學計算機科學教授Subbarao Kambhampati也同意:「對於悲痛的人,這科技實際上可能有所幫助,就像我們回顧和觀看逝者的生前影片。但這樣也會帶來嚴重的道德問題,例如在沒有死者同意的情況下這樣做可以嗎?」
有些學者和專家則指出,AI仿真聲線可能有安全和道德問題。在安全方面,有人擔心這種技術可被用作冒充詐騙。保安公司SocialProof Security行政總裁Rachel Tobac提醒,社會並未準備好迎接這種聲音科技被不法份子有機可乘的風險:「如果網絡犯罪份子可以透過少量語音樣本,輕鬆而可靠地複製另一個人的聲音,他們就可以使用那語音樣本來冒充其他人,可能會造成欺詐、數據和賬戶被盜竊等。」
詳細內容請閱讀第323期《香港01》電子周報(2022年6月27日)《Amazon Alexa重現親友聲音 追憶逝者還是助長行騙?》。按此試閱電子周報,瀏覽更多深度報道。