人面辨識都認唔到?麻省理工研特殊T侐可在AI鏡頭前「隱形」

撰文:李家樑
出版:更新:

人面辨識技術愈來愈普及,但其引發的私隱問題亦備受關注。不過「反攻」時刻到了,美國東北大學(Northeastern University)和麻省理工學院華森人工智慧實驗室(MIT-IBM Watson AI Lab)近日開發出聲稱可以瞞騙人面辨識的T恤,意味可以避開人面辨識監控。

究竟這件印有黑白棋盤格子樣式圖案的T恤,為什麼這樣神奇呢?它是使用「生成對抗網路(GAN, Generative Adversarial Network)」方法欺騙 AI。

(網上圖片)

簡單來說,「生成對抗網絡」是機器學習的一種方法,主要由「生成神經網絡」和「判別神經網絡」組成,「生成神經網絡」負責模擬生產出靠近真實資料的資料,交由「判別神經網絡」與真實資料比對,透過兩個網絡相互對抗、不斷調整各自網絡參數平衡結果,提高辨識準確率。換言之,透過同樣方法,也能找出可欺騙系統的圖案。

其實早年已有研究顯示,AI可以被附加在目標上的一些特殊圖案「欺騙」,惟只要圖案角度和形狀變化,就會輕易被識破。今次突破點在於即使衣服圖案隨着人的姿勢變化變形,仍能騙過 AI 系統。

(網上圖片)

研究人員指出,常用於「欺騙」AI的對抗性轉換(transformations)包括縮放、平移、旋轉、亮度、噪音和飽和度調整等,但不足以模擬由人體姿勢變化引起的變形,故他們採用稱為薄板樣條(TPS)的數據插值和平滑技術,利用仿射(保留點、直線、平面)和非仿射份量來建立坐標變換模型,令柔性物體也能模擬剛性物體的對抗性學習,「欺騙」 AI 。

研究人員分別在現實和虛擬環境測試這種 T 恤,單人情況下準確率分別 63% 和 79%;如果多於1人,成功率就會下降。

不過,這種方法可能騙不了像亞馬遜網路服務、Google雲端平台和微軟Azure這些更複雜的對象和人員檢測模型,但研究人員認為,這是邁向對抗性可穿戴設備的第一步。

未知不久將來是否真能突破人面辨識監控呢?