AI 2027 —— 當代理人成為我的日常基建|蘇仲成

撰文:MetaHero
出版:更新:

這兩個月,我已經全面把日常工作的重擔交予 AI 代理人(Agent)。這些代理人不只是聊天機械人,而是能夠真正「落手落腳」處理事情的工具。舉凡更新網站、維護 LinkedIn、在網上填寫表格、輸入資料、整理報告,甚至安排全天候的工作日程與資料搜集,代理人都能自動完成。這種感覺,就像忽然多了幾個不用請假的助理。2025年開始,我就親眼見證初代 AI Agent 出現在市場,雖然仍處於試驗階段,但已經能執行不少過去必須由人類處理的行政與操作工作。這個過程讓我重新思考「工作分工」的概念。以前我們總以為「人類負責決策、機器負責執行」是自然分界,但當代理人能在 Slack 或 Teams 上接收指令,甚至能自主完成程式代碼的修改和提交,這條界線開始模糊。

文:Michael C.S. So(AiX Society 人工智能應用研究學會-創會會長)

半熟狀態的「蹣跚學步」

根據《AI 2027》報告(由 Daniel Kokotajlo 等人於 2025 年 4 月 3 日發表,AI Futures Project 出版,ai-2027.com),2025 年被稱為「蹣跚學步的代理人」階段。研究指出,當時的代理人在 OSWorld 電腦任務基準測試中的表現約為 65%,僅稍低於一名熟練人類的 70%。換句話說,它們仍不夠穩定,需要人類監督與複核。

但這種「半信任」狀態恰恰是企業的試煉場。因為這正迫使我們去重新設計流程:哪些工作可以外判給 AI,哪些需要設置權限與監管,這些問題都必須被清楚定義。

對我而言,這樣的「半成熟」並不是壞事。因為企業轉型不是等到 AI 完美才開始,而是要在風險可控範圍內邊走邊試。這和創業精神有異曲同工之妙:永遠沒有最理想的時機,行動本身就是學習。

日常生活的例子:AI 在「前線」

舉個例子:以前我需要一個助理每天整理新聞,幫我找出和 AI、醫療或金融相關的資料。現在,一個 AI Agent 就能在三十分鐘內自動爬梳數十份新聞、研究和報告,然後濃縮成三頁摘要,再自動送到我的郵箱。它雖然偶爾會錯引或重複,但節省下來的時間,已經遠超這些小錯誤的代價。

另一個場景是財務:AI Agent 可以直接打開會計系統,輸入收支數據、做簡單報表。雖然需要人類會計師最後審核,但流程已經由「手工輸入」變為「監督檢查」。這正是《AI 2027》所描述的「從工具轉向代理」的過程。

成本曲線的「剪刀差」

我讀到最震撼的一段,是《AI 2027》提到尖端 AI 的成本和普及型 AI 的成本正出現「剪刀差」。專業級代理系統的月費可能達到數百美元,但達成「既有能力」的成本卻在急速下降,研究估計下降速度達到每年五十倍。

這意味著什麼?意味著未來的企業結構將會出現「雙層帳本」:

一方面,企業會投資昂貴的尖端 AI,用於戰略性與高價值任務。

另一方面,則以低成本的普及型 AI 滲透到員工日常工作。

這種模式能同時創造差異化與規模化優勢。從我的角度來看,這不僅是成本分配的問題,而是管理哲學的轉變:領導層必須學懂怎樣把資源分層使用,既不錯失技術前沿,又能確保全體員工的工作效率獲得提升。

算力即國力:OpenBrain 的啟示

《AI 2027》報告中虛構了一家公司「OpenBrain」,在 2025 年底建立了史上最大規模的 AI 叢集,相當於 250 萬片 H100 GPU,耗資 1,000 億美元,功耗達 2GW,並計劃於 2026 年再度加倍。

這不再只是工程壯舉,而是國家級基建。當 AI 的進展和電力、光纖網絡、供應鏈安全掛鉤時,競爭已經超越「誰的模型更好」,而是「誰能負擔這龐大基建」。

這讓我聯想到冷戰時代的核武競賽。不同的是,這次競爭的武器不是導彈,而是 GPU、數據中心和能源供應。換句話說,未來的「國力」,會和算力畫上等號。

2027:AGI 是否真的會來?

報告同時引述了 OpenAI、DeepMind、Anthropic 等公司領導層的預測,他們一致認為 AGI(通用人工智慧)可能在五年內出現。Sam Altman 更曾公開表示,OpenAI 的目標是「真正意義上的超級智慧」(superintelligence)。

2027 是否真的會是 AGI 元年?這個問題,我認為沒有人能準確回答。但可以確定的是,AGI 已不再只是科幻小說中的想像,而是必須嚴肅對待的未來選項。

就算 AGI 沒有如期出現,AI 的普及和滲透速度,已經足以改變社會的運行邏輯。

我讀後的反思:設計容錯的系統

我在閱讀《AI 2027》後得到最大的啟發,是「容錯性」的重要性。真正的挑戰不在於 AI 能否取代人類,而是我們是否能設計出一套能容忍錯誤、能快速調整的制度,讓我們在面對 AI 的不穩定時,仍能繼續前進。

這也許是對所有企業和個人的提醒:不要期望 AI 給我們完美答案,而是要打造一個能夠「失敗後迅速恢復」的環境。這樣,即使 AI 犯錯,我們仍然不會被世界淘汰。

《AI 2027》給我的最大感受,是它讓未來不再只是遙遠的科技預言,而是一份必須立即行動的待辦清單。

2027 年的核心問題,不在於 AGI 是否真的誕生,而在於我們是否已經準備好迎接它。準備的重點,不是找到最正確的答案,而是設計能容錯、能快速調整的制度,讓我們即使在 AI 犯錯時,仍能持續向前。

對我來說,真正的課題是:如何利用 AI,避免自己與企業被世界取代。這正是《AI 2027》拋出的最深刻問題,也是我寫下這篇專欄的原因。