《香港01》學生資訊素養講座 中大學者拆解AI演算影響大眾的邏輯
人工智能的發展無遠弗屆,日常生活都與AI有關。有否想過當你刷IG短片,或在招聘網站投遞履歷時,背後都有一套看不見的演算法,正在默默地為你「打分」或「貼標籤」?《香港01》早前邀請到中文大學社會學系李勁華博士,到九龍塘學校(中學部)為學生舉行資訊素養講座,以社會科學方法深入探討AI的相關現象。李博士與其團隊近年致力開發多個學科為本的AI素養微學習單元,是次講座中分享的部分「行內人」觀點,正是團隊在開發過程中累積的經驗所得。
李博士(Dr. Kent Lee)於講座伊始便問學生︰「大家今早起床後,有沒有開過手機應用程式?」都市人機不離手,李博士指出,其實透過手機上各式的應用程式,大眾的生活早已受 AI 推薦系統(Recommendation System)制約。有別於傳統依賴訪談和問卷的研究方式,AI如今能直接透過分析大數據,在我們毫無察覺下作出分類與牽引。
AI會以演算法分類(Algorithmic Sorting),透過行為與背景資料自動劃分群體。例如Netflix推薦系統會為觀眾分類;招聘網站則透過履歷、甚至利用 AI 進行面部表情分析來篩選「理想員工」。除了分析個人,AI更擅長梳理人與人之間的連結。社交媒體便會進行網絡分析(Network Analysis),藉助AI即時處理巨量數據的能力,將社會關係量化。AI可根據WhatsApp的互動記錄畫出「關係地圖」,推斷出誰是掌握話語權的「中心節點」,不太活躍的發言者則為「邊緣節點」。這種將關係量化的技術,應用層面甚廣——,政府便曾於疫情期間,利用類似原理來追蹤確診者的接觸史,以阻斷傳播鏈。
李博士之後再深入淺出講解「協同過濾」(Collaborative Filtering)的原理,他以「人以群分,物以類聚」來作比喻。假設兩名同學之間的需求相似,AI就會把對方喜歡的產品推薦予另一人,連電影、劇集的喜好都能精準推送。李笑言,AI就像一個「心思細密的智能助手」,替人省去搜尋的時間,不過,要小心陷入「信息繭房」(Information Cocoons)及「過濾氣泡」(Filter Bubble),有機會變成只看到自己想看的內容,令視野變得狹窄。
李提到,學生近年遇上情緒問題時求助比例偏低,當中有人指可將AI作為24小時「情緒樹洞」。不過他提醒AI並非確切理解人類語言,它只是透過大型語言模型(LLM)中的三大核心Tokenization(詞元化)、Vectorization(向量化)與 Computation(神經網絡處理),將文字轉為數字ID並計算對話詞彙出現的概率。所以與AI進行情感諮詢會存在風險,畢竟AI缺乏同理心,亦無法處理危機,故不應視之為「醫生」。
此外,李博士又向同學介紹芝加哥大學開發的犯罪預測模型,它能將城市劃分成網格,並根據歷史數據規律,提前一周預測犯罪地點,準確率高達90%。而韓國也有類似系統,透過CCTV影像生成「犯罪預測熱力圖」,從而安排巡邏配置,準確率亦達82.8%。
儘管AI威力強大,李博士在講座尾聲,再次提醒同學們要警惕AI當中的演算法偏見。他表示︰「AI只是輔助工具,並非最終決策人,真正的意義在於人性的理性判斷。」
目前教育局透過優質教育基金推出「我的行動承諾」加強版撥款計劃及「我的行動承諾」加強版撥款計劃(第二階段),中、小學(包括特殊學校)可申請一次最多30萬元撥款,用於國民教育和國安教育,媒體資訊素養教育,及/或促進學生身心健康,資助項目包括學生講座/工作坊、參觀、體驗活動、教師工作坊、購買或製作教材等。若希望了解申請撥款詳情,參閱此文章。
《香港01》能因應中/小學的不同需要,推出媒體和資訊素養,以及國民教育和國家安全教育的支援,形式不限,包括學生、家長或教師講座/工作坊、校本專業支援、教育資源庫、到訪《香港01》或其他主題式的體驗活動等。
如對計劃有任何查詢,歡迎聯絡香港01有限公司代表黃先生:
電郵:education@hk01.com (標題註明 『媒體資訊素養活動』)
WhatsApp:35828747
電話:35828747