永續學院|台經月刊|【專題探索】國際生成式人工智慧監理趨勢研析

 

台經月刊

 

【專題探索】國際生成式人工智慧監理趨勢研析

巫敏慧  (2024/08/20)    《台經月刊第47卷第8期》

2024年歐盟頒布世界首部針對人工智慧進行直接規範的法案,該法案旨在平衡AI的風險管理與創新發展需求,並對生成式AI系統的提供者明確規範具體義務。鑒於歐盟制定法案控管風險及明確義務;英國發布白皮書強調跨部門合作治理;美國以行政命令確立技術與應用之安全準則;聯合國則通過決議響應全球之AI監理需求。伴隨生成式AI技術的快速發展,各國為因應AI相關風險,其針對AI監理相關法規和策略亦隨之演進,以應對愈發多元化的挑戰。

 

近年來生成式人工智慧(Generative AI)技術快速發展,已廣泛應用於內容創作、醫療保健、金融服務、教育等領域,進一步促進各產業數位轉型,為全球經濟、社會與科技發展帶來顛覆性影響。惟其伴隨之潛在風險與挑戰亦引發全球關注,如隱私權風險、智慧財產權侵害、偏見與刻板印象強化隱憂、不實資訊危害、資訊安全風險等,皆為各國積極探究及尋求因應策略之重要議題。本文旨在探討歐盟、英國、美國及國際組織於生成式人工智慧監理現況及趨勢,期能作為我國監理政策參照與借鑑。

 

英國政府要求英國主要監理機關應對AI相關風險時必須考慮:(1)安全、保障與穩健性;(2)透明度與可說明性;(3)公平性;(4)問責制與治理;(5)可競爭性與補救的五項原則。

 

歐盟:制定法案控管風險及明確義務

2024313日歐盟正式通過《人工智慧法案》(Artificial Intelligence Act, AI Act),為世界首部針對人工智慧(Artificial Intelligence, AI)進行直接規範的法案。該法案旨在平衡AI的風險管理與創新發展需求,提出嚴謹的AI相關風險評估與分類方法,以免除AI威脅人權、民主、法治和環境永續性之相關風險,同時促進AI技術持續創新與發展,並推動國際合作以因應AI的全球化發展趨勢。

該法案採用「基於風險的管理方法」(Risk-based approach),明確將AI應用風險劃分為四類風險等級(附表),並依此確立各不同類型AI系統適用之監理模式。

生成式AI監管AI風險管理透明度義務深度偽造智慧財產權隱私保護風險分級創新發展倫理規範全球合作

分享:


 

聯絡我們

104 台北市中山區德惠街16-8號7樓
電話:總機 +886 (2) 2586-5000
傳真 +886 (2) 2586-8855
E-mail:bussiness@tier.org.tw