臺灣AI 基本法的突破與困境

字級
  |    | 

歷時二年,臺灣首部AI 專法《人工智慧基本法》日前公布施行,開啟AI數位治理新紀元。本次通過立法最重要的突破是什麼?當AI時代全面來臨時,又將面臨哪些困境?對企業而言,AI的「治理」優先於「法遵」,與其靜等國內(或各國)AI監理立法的逐步落實,應立即評估建立AI 治理最佳的因應策略。

今(2026)年1月14日《人工智慧基本法》(以下簡稱AI基本法)正式公布施行,標誌著臺灣邁入以「數位治理」為核心的新紀元。臺灣參考自日本「基本法」的立法例,因應社會結構性的重大變遷,或保障憲法中較為抽象的基本權利,透過法律創設在憲法之下,一般作用法之上,具有指導性、方針性及政策綱領的法律,讓行政機關在制定相關政策、編列預算或制定作用法時有所依循。以AI基本法為例,各目的事業主管機關應在二年內,根據基本法揭示的原則去修正、廢止或制定具體的法律。

AI基本法的雙軌模式

AI基本法採取「橫向」與「縱向」交互的立法模式。「橫向」通用規範—即以原則性、方針性的條文,確立AI開發、應用與治理的普遍適用原則,包括透明性、可問責性、安全性與人權保障等核心價值,涵蓋所有使用AI的產業與政府機關,不論其應用於醫療、金融、交通或公共行政,均一體適用;「垂直」事業規範—即各目的事業主管機關依據基本法的授權,針對各自業管領域的特殊風險與技術環境,制定具體可執行的作用法規。例如:醫療事業主管機關將就AI輔助診斷的資料安全與臨床驗證進行規範;金融主管機關將針對AI信用評分與演算法交易訂定透明度要求;勞動主管機關則需回應AI導入職場後,引發的勞動條件與就業保護議題等。

值得注意的是,採取此種雙軌治理架構的成效,高度取決於基本法所規範「橫向」的普遍原則,能否被各部會有效轉化為可執行的具體管理規範,以及各部會間是否存在足夠的橫向協調機制,避免形成規範真空或重疊衝突。亦即,未來一至二年正是臺灣AI法制發展的關鍵時期,企業須持續關切國家科學及技術委員會、數位發展部及各目的事業主管機關間,有關AI相關議題的互動與法律或指引發布之進度,並透過公協會積極參與,以避免錯失公私協力營造優質AI法制環境的良機。

AI基本法未解的議題

對企業而言,AI基本法最大的意義,或許不在其已所揭示的AI倫理原則,而在其明確點出AI時代潛在的「衝突點」,諸如:訓練資料、個資保護、勞動權益、風險管理架構、AI責任歸屬、救濟與保險機制等,這些正是AI時代全面來臨時,企業所需面臨法律與倫理爭議最劇烈的摩擦帶。

1. 訓練資料著作權與個資保護:

大型AI模型的訓練不可避免地涉及巨量資料的使用,其中,可能包含他人著作或個人資料等。基本法的立場就是AI發展很重要,但著作權、個人資料的保護也很重要。對於企業而言,等到立法更明確把界線劃出來再行動顯然緩不濟急,推動企業資料治理才是可行之道。良好的資料治理可以事後追溯AI模型訓練的選擇,究竟是在何種條件下進行決策,若事後法律對於訓練資料因涉及他人權益的保護,有採取技術上排除該等資料影響的必要時,亦可釐清哪些資料是在不合法的狀況下被列入訓練資料,以控制AI模型可能的違法風險。

欲閱讀全文,可訂購本期雜誌電子雜誌
如果您喜歡我們的文章,您可以訂閱電子報,獲得最即時的訊息