歐盟將達成全球首部管理AI法規:現行5種監管人工智能方式

撰文:房伊媚
出版:更新:

美媒12月7日稱,人工智能(AI)將顛覆就業市場,加劇虛假訊息傳播,甚至為人類存續帶來風險。報道指,世界各國的監管機構正採取不同的辦法來監管AI,結果導致全球監管格局高度分散且混亂,而目前有5種監管方式。

《紐約時報》12月7日稱,現時針對AI的主要監管框架包括:

歐洲法規

歐盟12月6日正就《人工智能法案》( EU AI Act)進行協商,它會根據人工智能工具帶來的風險水平實施相應的監管,對風險最高的系統施加最嚴格的限制。法案將根據4種情況對人工智能工具進行分類,分別是不可接受的風險、高風險、有限風險和最低風險。

美國自願行為準則

美國政府要求企業自願監管AI系統的安全風險。自願監管措施包括對工具進行第三方安全測試,即所謂的「紅隊檢測」;對偏見及私隱問題進行研究;向政府和其他機構共享風險訊息;開發能應對包括氣候變化在內的社會挑戰、同時還包含識別人工智能生成素材的透明措施的工具。

圖為路透社2023年3月31日發布與人工智能有關的設計圖片。(Reuters)

美國法案

美國會議員根據各項有關AI的科技來制定法案,包括已提出的與AI系統創造和部署有關的法案、關注AI系統侵犯版權行為的法案、以及關於選舉安全和限制使用「深偽」科技的法案。

美國參議院民主黨領袖舒默(Chuck Schumer)已承諾,一項全面的人工智能法案可能於2024年公布。

中國規管

中國自2021年起迅速頒布旨在監管包括推薦演算法、深偽在內的合成內容,以及生成式人工智能(Generative AI)的法規。中方的生成式人工智能監管草案要求保證訓練數據和科技創作內容的「真實準確」,草案涵蓋的對象包括ChatGPT在內的AI聊天機械人程式。

全球合作

迄今全球合作監管AI方面的外交工作幾乎沒取得實質成果。各國的一個想法是建立國際機構,但難在須克服地緣政治不信任、經濟競爭、以及民族主義浪潮,這些因素與人工智能的發展緊密相連。