彭韻僖|人工智慧與性別平等:法律人的使命與挑戰

撰文:彭韻僖
出版:更新:

彭韻僖專欄

10月中旬,我前往越南河內,以剛卸任會長的身份參加了亞太法律組織 LAWASIA 的年度大會。期間,我與來自亞太地區的法律精英齊聚一堂,共同見證人工智慧(AI)為法律界帶來的革命性變化。AI 不僅提升了工作效率、開創了新的經濟領域,更為解決複雜社會問題提供了全新途徑。然而,在這場技術飛速躍進的浪潮中,我們也必須正視一個嚴峻挑戰:AI 正在無形中加劇「性別不平等」。

偏見數位化的延續

人工智慧常被誤解為絕對客觀的決策者,實則不然。AI系統透過人類提供的數據進行訓練,不可避免地承襲了歷史數據中的「性別偏見」。正如計算機科學的經典格言:「垃圾進,垃圾出。」若以帶有偏見的數據訓練AI,系統將以驚人的規模和速度複製並強化這些偏見。

今年香港一項研究顯示,當男女分別使用AI完成同等品質工作時,女性的專業能力評分明顯偏低。這並非技術故障,而是系統性偏見的自動化再現。《香港性別焦慮調查》同樣發現,職場女性對AI導致失業的憂慮顯著高於男性,這反映了女性對潛在不公的敏銳洞察。

系統性歧視的強化

在金融領域,若AI以過往信貸數據進行訓練,這些產生於女性經濟地位較弱時期的數據,將導致算法系統性地歧視女性申請者。招聘領域更是如此,已有國際案例顯示,AI會自動降低含「女性」詞彙簡歷的評分,僅因訓練數據中男性獲聘率較高。

即使在法律專業領域,用於預測判決結果、輔助量刑的AI工具,若以帶有性別偏見的歷史判例訓練,便可能將過時的歧視觀念制度化為「客觀」的數據分析。這使得性別不平等在算法黑箱中被自動化、系統化,受害者卻難以挑戰「中立機器」的決策結果。

建公平未來的路徑

面對這些挑戰,我們必須從三個層面着手:

首先,建立完善的法律問責機制。我們需要在金融、就業、司法等高風險領域推行算法影響評估制度,實施強制性性別偏見審計。香港律師會去年發布的《人工智慧立場書》已明確指出,必須加快建立AI法律與倫理框架,並將科技素養納入律師專業能力範疇。同時,必須確立「解釋權」,確保個人面對AI決策時,有權獲得清晰易懂的解釋。

其次,強化企業技術治理。我們需要投入「去偏見」技術的研發,建立更具代表性的數據集,培養具備倫理意識的技術人才,並將技術問責納入企業治理體系。

最後,培育深度包容文化。技術終究反映創造者的價值觀。若AI研發團隊缺乏多元性,就難以察覺潛在的偏見問題。因此,必須提升科技行業、董事會和監管機構的性別多元性,這不僅是口號,更是防範認知盲區的關鍵保障。

這三重策略並非為了限制創新,而是引導AI朝着更智慧、更公平的方向發展。作為法律人,我們肩負着確保技術進步不犧牲社會公平的使命。當AI持續革新法律實踐,我們必須確保這項技術能夠平等地服務所有人,而不是將歷史的不公編碼進未來的基石。唯有如此,我們才能建設一個真正公正的數位未來。

作者彭韻僖是全國政協委員,香港律師會前會長。

文章僅屬作者個人意見,不代表香港01立場。

01專欄精選不同範疇專家,豐富公共輿論場域,鼓勵更多維度思考。