永續學院|洞察觀點|解讀韓國AI基本法,企業合規治理的關鍵佈局(下集)

 

洞察觀點

 

解讀韓國AI基本法,企業合規治理的關鍵佈局(下集)

副研究員王偉鴻  (2026/02/03)    《永續學院編輯室》


第二層-生成式AI:透明度標示義務

如果您使用過ChatGPTMidjourney等工具,您就接觸過「生成式AI」。基本法第2條第5款將其定義為「模擬輸入數據結構與特徵生成文字、聲音、影像、視頻等輸出物」的系統。這類AI雖然不一定屬於高影響力AI,但因為能夠製造「以假亂真」的內容(尤其是深度偽造技術Deepfake),法律要求所有生成式AI的提供者必須履行「透明性標示義務」。

根據20261月發布的《AI透明性保障指南》,AI標示方式分為三種情境:

情境一:明顯是AI生成的內容:例如卡通風格的插圖、動畫角色、抽象藝術作品,一般人一眼就能看出不是真實照片。對於這類內容,企業可以使用「隱形數位浮水印」或在檔案的元數據(Metadata)中註記「AI生成」,不需要在畫面上明顯標示。

情境二:高度擬真的合成內容:這是監管的重點-例如用AI生成的假新聞主播影片、偽造的政治人物演講、虛構的犯罪現場照片。對於這類「深度偽造」內容,法律強制要求使用「人眼可清晰辨識」的標示方式,例如在影片角落持續顯示「AI生成」的浮水印Logo(類似電視台的台標),或在音訊開頭插入語音聲明「此聲音由人工智慧合成」。指南明確指出:僅在檔案後台寫入元數據或使用隱形浮水印不符合法律要求,這將構成違法行為。

情境三:邊界模糊的內容:例如風格化的人像攝影、經過大量修圖的產品照片,可能讓人混淆是否為AI生成。對於這類情況,指南建議企業採取「靈活處理」-可以在應用程式介面顯示提示訊息,或在內容旁邊標註「部分使用AI技術製作」。

值得注意的是,基本法為「藝術創作」保留彈性空間。如果強制在電影特效畫面或網路漫畫背景打上浮水印會破壞作品的鑑賞體驗,企業可以改在片尾字幕或作品說明中標註使用AI技術。然而,這項豁免不適用於深度偽造內容:無論是否為藝術創作,只要內容可能誤導觀眾,就必須明確標示。


第三層-高性能AI:計算閾值的巧妙設計

韓國AI基本法第32條(安全性確保義務)針對「超大規模運算能力」的AI模型設定特殊安全義務,要求訓練計算量達到或超過10²⁶次浮點運算(FLOPs)AI系統,必須建立生命週期風險管理計劃、進行文檔記錄,並向科技部報告實施結果。。

為什麼政府要設定這麼高的門檻?韓國科技部在指南中解釋,這是為「避免對當前AI產業造成過度監管」,同時為未來可能出現的「超級AI」預留監管空間。這種設計反映立法者的務實態度:既要展現對AI風險的重視(設立法律框架),又不想扼殺產業發展(設定極高門檻)然而這也引發批評者質疑:如果法律條文形同虛設,是否只是「做做樣子」的象徵性立法?
 

❤️ 更多精彩內容,註冊立即閱讀 ❤️
 

韓國AI基本法AI法案風險分層監管高影響力AI高風險AI生成式AI企業合規治理深度偽造數位浮水印透明性標示義務域外適用負責任AI治理風險管理

分享:


 

聯絡我們

104 台北市中山區德惠街16-8號7樓
電話:總機 +886 (2) 2586-5000
傳真 +886 (2) 2586-8855
E-mail:business@tier.org.tw