ASAP智庫|AI 時代生存指南:解構 AI 素養四大核心元素
亞太政策倡議研究所(ASAP)專欄|張博宇、馮巧欣
回想一下,您最近一次用生成式人工智能(AI),是產出了新春賀圖、客戶電郵、圖文並茂的PPT簡報,還是查詢生活日常?AI愈趨普及,從日常生活到學習與工作,無論是學生還是職場人士,都已廣泛應用AI,但「用得到」不等於「用得好」。不少家長、教師、僱主,甚至政策制定者,都在問同一條問題:如何判斷一個人「AI用得好不好」?懂得輸入指令(Prompt)是否就等於「識用」AI?所謂「AI素養」,其實並非單一分數,而是一套互相關聯的能力,有助不同持分者更有系統地評估子女、學生、員工,甚至整體教育政策的方向是否正確。事實上,近年本地以至國際間,已出現多個AI素養框架,從多個面向勾劃出AI時代應具備的關鍵能力。這裏,先和大家聚焦其中四個在多個框架中經常出現的核心元素。
首先是理解各AI模型的能力與限制。AI其實是一大族群,不同模型各有專長與短板。有些 AI模型專攻「文字生文字」,擅長摘要整理、草擬文章、翻譯段落;有些擅長「文字生圖像」,可以指示生成海報、插畫或產品設計草圖;也有「文字生影片」、「圖像轉圖像」等應用,能製作短片、為舊相片補色,或把手繪草圖轉化為更精緻的設計。雖然目前最先進的AI已能處理多模態輸入輸出,例如同時理解文字、聲音、圖像及影像,但用家細心使用後會發現,不同模型在各模態的表現仍存在明顯差異。有些在文字推理特別可靠,卻未必擅長視覺細節;有些生成圖像效果出眾,但在長文邏輯結構上容易出錯。
這種對「能力與限制」的理解,其實不單是「認識工具」,更是一種基礎的技術素養。有些國際框架便明確指出,學生要知道AI是如何透過數據和演算法訓練而成,並明白現有AI仍屬「狹義AI」,只在特定任務上表現突出,並非全能。這種理解不一定要求人人都會寫程式或搭建模型,但至少要知道:為何AI需要大量數據?模型能處理的是甚麼形式的資訊?當使用者明白各AI模型的專長與局限,便能按實際需求,例如寫報告、製作海報、剪輯影片或修圖,選用最合適的工具,而非「一個AI用到底」,亦即是懂得把AI擺放在工作流程中的合理位置,既不神化,也不低估。
第二是懂得質疑。很多人第一次接觸生成式AI時,往往被其流暢的語言、整齊的格式所折服,覺得「講得頭頭是道」,便自然相信其內容屬實。但在專業領域裏,大家很快便會發現,AI有時會產生錯誤資訊,甚至虛構內容。這種現象在業界被稱為「AI幻覺」(AI Hallucinations)。AI模型的開發高度依賴大量優質數據,因此在缺乏資料、題目模糊或訓練數據本身存在偏差時,就很容易一本正經地說錯話。如果使用者缺乏批判思維,只因內容「睇落」專業、有說服力,就不加思索地原文轉貼、引用或藉以作出決策,便極易被誤導,甚至把錯誤訊息散播開去。
因此,評估AI素養的另一關鍵,在於使用者能否主動驗證AI提供的資訊。這種驗證不只是「再問一次AI」,而是要懂得追問每項資訊的來源,判斷來源是否可信,並與其他獨立渠道交叉比對。例如,當AI就某學術問題作答時,使用者應該檢視它提到的參考文獻是否真有其書、有其期刊,有沒有被斷章取義。當它就健康、法律或財務議題提出建議時,使用者要懂得把AI的回應視作初步參考,而不是專業診斷,必要時仍要尋求具資格的專業人士意見。部分AI素養框架甚至進一步指出,現代公民還需具備辨識AI生成內容的能力,包括識別深度偽造(Deepfake)影片、AI改圖或自動生成的假新聞,懂得檢視影像是否有不合常理的細節、查核發布帳戶與時間、理解演算法如何放大誇張內容等。「懂得質疑」不只是一種態度,而是一系列可教、可學的技巧,包括如何追問、如何查核資訊、如何判斷真偽。
第三是道德與責任感。AI素養並非純技術問題,背後牽涉價值觀與公民責任。當AI可以輕易生成文章、圖片及影片,抄襲、侵犯私隱及散播偏見變得前所未有地容易。一篇看似「自己寫」的作業,可能只是把AI生成的內容稍加改動;一張看似真實的照片,可能是把他人的臉孔與身體拼湊而成;一段帶有張力的敘事,可能來自本身已偏頗的訓練數據。這些情況不單關乎個人操守,更關乎整個社會對「負責任使用AI」的基本共識。
因此,無論是家長、教師還是僱主,在評估子女、學生或員工的 AI 素養時,都應關注他們能否清楚分辨甚麼可以交給AI處理、甚麼絕對不可以,以及每次輸入資料、文件及相片時,是否意識到背後涉及私隱、知識產權與責任風險。例如,學生是否知道不能把同學的相片隨意上載到第三方平台來試玩「換臉」功能?員工在處理客戶個人資料時,是否明白不能把資料直接複製到公開AI工具中?許多國際的AI素養框架,都把這種「倫理意識」視為不可或缺的一環。
第四是人機協作。AI不應被視為取代人類的神秘「黑箱」,而是融入決策、創作和學習流程中的夥伴。良好的人機協作能力,在於清楚掌握AI的能力與局限,並能按不同任務進行合理分工。有些由人主導、AI輔助,有些可以先由AI處理,再由人作最後把關。舉例來說,使用者可以先請AI協助把龐雜的資料整理成重點,再由自己進行深入閱讀與批判評估;設計師可以用AI生成多種初步視覺方案,再憑專業眼光選擇、修改與定稿。
在多個AI素養框架中,「人機協作」並不只是操作層面的「懂得下指令」,還包括溝通與反思能力。使用者需懂得下達清晰、具體的指令,不斷調整和修正AI的輸出,並在過程中反思自己對問題的理解是否也需要更新。這種互動更像是和一位能力強但不完全可靠的助手合作。使用者要懂得說清楚目標、提供足夠背景資料、設定評估標準,同時保留最終決定權與價值判斷。有些框架甚至將「把問題拆解成適合人與AI分工的小步驟」視為一項核心能力。懂得哪些步驟適合用AI自動化處理,哪些必須由人親自判斷,便能在提升效率的同時維持質素。
從以上四個元素可以看出,AI素養不僅是輸入指令的能力,更是一種綜合性的思維方式與價值判斷。從理解AI模型的能力與限制、保持批判思維質疑輸出結果、堅守道德與責任底線,到掌握人機協作的平衡,這些核心元素共同構成了AI時代不可或缺的能力框架。無論是教育工作者培養下一代、僱主評估員工,還是政策制定者規劃教育方向,都應以這些多維度的評估標準作為參考,從課程設計、評核模式到校本及職場指引,逐步建立清晰而具前瞻性的AI使用文化,確保AI的應用既高效又負責任。
馬年伊始,本欄將馬不停蹄與各位分享不同領域的政策研究內容,期望立足香港、比較區域和環球政策為定位,與大家辨明政策推動的方向,並從AI素養等新興議題出發,思考如何在快速變動的科技環境中保障公義與福祉,與大家共同締造更美好的社會。
作者張博宇為亞太政策倡議研究所ASAP研究總監;作者馮巧欣為亞太政策倡議研究所ASAP倡議總監。
亞太政策倡議研究所(Asia-Pacific Society for Advocacy and Policy, ASAP)結合嚴謹精闢的公共政策研究及積極倡議策略,將實證研究轉化為政策推動力。
文章僅屬作者意見,不代表香港01立場。
01專欄精選不同範疇專家,豐富公共輿論場域,鼓勵更多維度思考。