科技.未來|Amazon Alexa重現親友聲音 追憶逝者還是助長行騙?
科技巨頭亞馬遜(Amazon)在上周舉行的re:MARS 2022開發者大會上,示範了一項它正在研發的技術,人工智能(AI)語音助手Alexa只需極少訓練,就能像真地以某人的聲音與用家對話。為什麼亞馬遜要在Alexa引入這種功能?大眾及他們已逝的親友,是否希望自己的聲音以這種方式重現?這種用途在安全和道德上又有何隱憂?
「延續對逝者記憶」
亞馬遜上周舉辦了年度開發者大會re:MARS,介紹在機器學習、自動化、機械人及太空中的AI應用研發。會上播放了一條示範短片。一名兒童向熊貓設計款式的兒童主題版本智能音助理問道:「Alexa,祖母可不可以繼續說《綠野仙蹤》的故事給我聽?」Alexa用它預設的聲線回答「OK」,之後就換上了另一把聽起來較接近人類的聲音,朗讀膽小獅尋求自信的情節。
Alexa首席科學家Rohit Prasad在會上介紹,Alexa只需要不足1分鐘的錄音內容,就能夠模仿某個聲線:「我們實現這一點的方式是,將問題定義為一個語音轉換任務,而不是一條語音生成路徑。」
亞馬遜過去已經開發了聲音合成技術,可以令Alexa模仿籃球明星奧尼爾(Shaquille O’Neal)或喜劇女演員Melissa Mccarthy的聲線說話。當時的做法比較落後,需要有人長時間錄下大量的音訊。相比之下,Alexa這項新的聲音模仿功能,據稱是公司基於近年文字語音轉換技術進展,能夠以較少的數據就能生成高質、像真的聲線。
Prasad說,建立這種語音功能的目標,是藉由把AI和「人類有同理心和情感的屬性」結合,增加用家對Alexa的信任。他強調,目前正值新冠肺炎大流行時代,世上很多人失去了至親至愛,為AI增添「人類屬性」變得愈來愈重要。
例如,他聲稱,這項AI技術進展可以讓消費者與已逝親友維持「持久的個人關係」:「雖然AI無法消除失去至親的痛苦,但它絕對可以令記憶長存……毫無疑問,我們生活在AI的黃金時代,我們的夢想和科幻小說正在成為現實。」目前,亞馬遜發言人拒絕透露這項新功能會在何時推出供消費者使用。
AI仿人聲愈見普及
想以科技或AI來「復活」逝者不算是新的概念。在科幻小說以外,實際也有些人嘗試過。AI初創公司Luka創辧人Eugenia Kuyda在2018年為紀念因車禍喪生的親友,向其家人和朋友取得生前短訊,製成聊天機械人;這正是該公司開發的應用程式Replica的功能。2020年,加拿大自由作家Joshua Barbeau在未婚妻死於罕見肝病八年後,以二人的通訊對話記錄,訓練OpenAI開發的語言生成AI GPT-3,同樣製成聊天機械人。
另有一間名為HereAfter AI的美國公司開發了應用程式,透過詢問用家的童年、家庭背景、人際關係、職場生涯等種種經歷,同時錄下用家的語言回應,並允許用家上傳記錄人生重要時刻的照片來「收集回憶」。經用家挑選的親友日後可向程式說話,程式會以用家的聲線和已收集的內容回應。
在現今世代,留下個人蹤迹的影片、聲線記錄不缺,一般人也隨時手執足夠內容,重視親友、甚至任何人的聲線。同時,以現有的AI技術,若要令Alexa之類的系統更加豐富、準確,是完全可行,這種應用也可能愈趨常見。
早前,Google一名工程師更在AI研究領域掀起一場爭議:到底現時已能夠造到極之精緻的AI聊天機械人,是否存有感受和意識。雖然學術界基本上否定了目前機器具有感受的說法,不過,這過程中也確實突顯了目前這些聊天機械人可以高度像真的程度。
在追憶逝者以外,所謂「聲音深偽」(audio deepfakes)的AI仿人聲線,也開始得到商界和媒體創作青睞,在播客(podcast)、電影、電視、電子遊戲中的商業應用愈來愈常見。例如去年一條有關已故名廚Anthony Bourdain的紀錄片中,攝製組利用了AI複製其聲線,以讀出他生前發送過的電郵內容。
然而,有些不知情的Bourdain的「粉絲」對於影片如此利用AI的方式不滿,批評該紀錄片內容「帶欺騙成分」、「恐怖」。亞馬遜是次公布Alexa的最新功能後,在網絡上也引起不少負評,從社交媒體Twitter上可見,用戶批評這功能「令人不安」、「有病」,或者他們不想要這種功能之類。
這種不安感的源頭,有可能是像澳洲科廷大學(Curtin University)互聯網研究教授Tama Leaver指出,在這類應用上,人類和機器的界線開始模糊:「你不會記得,到底是與亞馬遜的數據收集服務交談,還是與你的祖父母或某位已故親友的聲音交談。某程度上,它有點像《黑鏡》(Black Mirror)的劇情。」
換言之,當Prasad說「科幻小說」正以AI科技成真,真正成真的也可以是《黑鏡》這種反烏托邦科幻情節。此外,《黑鏡》其中一集正是講述一名傷痛欲絕的寡婦把身故丈夫製成某種虛擬助手和機械人。諷刺的是,結果這不過為婦人徒添痛苦。
及早思考使用倫理
有些學者和專家還指出,AI仿真聲線可能有安全和道德問題。在安全方面,有人擔心這種技術可被用作冒充詐騙。保安公司SocialProof Security行政總裁Rachel Tobac提醒,社會並未準備好迎接這種聲音科技被不法份子有機可乘的風險:「如果網絡犯罪份子可以透過少量語音樣本,輕鬆而可靠地複製另一個人的聲音,他們就可以使用那語音樣本來冒充其他人,可能會造成欺詐、數據和賬戶被盜竊等。」
這種說法不算過慮。在2019年,有騙徒利用AI模仿一間英國能源公司經理的上司聲音,成功欺騙他轉賬近20萬英磅的公司資金至一個海外銀行戶口。美國亞里桑那州大學計算機科學教授Subbarao Kambhampati希望,Alexa的語音複製能力可以令大眾對這類科技更加警覺:「儘管聽起來令人毛骨悚然,但這很好地提醒了我們,在這個時代,我們不能相信自己的耳朵。」
事實上,目前不論聲音還是影像,深偽技術(deepfake)已經氾濫到全球政府和科技公司均不得不積極應對。上月底,Meta、Google、微軟(Microsoft)、Twitter等科技巨頭和社交媒體都表態配合遵循歐盟最新的假消息行為守則,包括打擊deepfake不力會被罰款。
就在亞馬遜的發布會前夕,微軟發表了AI倫理守則。一方面,它強調這技術會有大眾可接受的用途,例如在商店中引入卡通人物聲線增加互動。另一方面,微軟也宣布將會更嚴格限制誰可以製造人工聲線,以及如何使用,因為這技術有可能會被用作欺詐工具。例如, 微軟確保在複製聲線過程中,被複製的人需要「積極參與」;也要求客戶公司需要先申請才能製作這類聲線,而且自5月起已經在製作過程中加入了人耳聽不到的「水印」,以追蹤和辨識這些聲音有否被濫用。
澳洲互聯網研究教授Leaver指出,Alexa的新功能,在製作上有知情同意的問題。他說,如此使用逝者的數據「既令人毛骨悚然,也有違倫理,因為逝者本身或許沒有想過,自己的數據會在死後被人如此利用」。Kambhampati也同意:「對於悲痛的人,這科技實際上可能有所幫助,就像我們回顧和觀看逝者的生前影片。但這樣也會帶來嚴重的道德問題,例如在沒有死者同意的情況下這樣做可以嗎?」
Leaver補充,從中衍生的還有聲音擁有權的問題:「如果我祖父向我傳送了100則訊息,我是否有權將它們輸入到這類系統?如果我這樣做之後,誰是擁有者?Amazon是否擁有該錄音?」種種問題,Prasad在亞馬遜開發者大會上均沒有提及。
若亞馬遜的新功能成真,Leaver說屆時大家可能需要開始思考,希望死後自己的聲線和肖像數據會被用作什麼用途:「我是否需要在遺囑中交待,我的聲音和我在社交媒體上的圖片歷史是我孩子的財產,他們可以決定要不要以此重構一個我出來和我聊天?在現在討論這個問題或許很奇怪,但我們應該在有朝一日Alexa能夠像自己一樣說話之前,得到答案。」