【專題探索】國際生成式人工智慧監理趨勢研析
巫敏慧 (2024/08/20) 《台經月刊第47卷第8期》
2024年歐盟頒布世界首部針對人工智慧進行直接規範的法案,該法案旨在平衡AI的風險管理與創新發展需求,並對生成式AI系統的提供者明確規範具體義務。鑒於歐盟制定法案控管風險及明確義務;英國發布白皮書強調跨部門合作治理;美國以行政命令確立技術與應用之安全準則;聯合國則通過決議響應全球之AI監理需求。伴隨生成式AI技術的快速發展,各國為因應AI相關風險,其針對AI監理相關法規和策略亦隨之演進,以應對愈發多元化的挑戰。
近年來生成式人工智慧(Generative AI)技術快速發展,已廣泛應用於內容創作、醫療保健、金融服務、教育等領域,進一步促進各產業數位轉型,為全球經濟、社會與科技發展帶來顛覆性影響。惟其伴隨之潛在風險與挑戰亦引發全球關注,如隱私權風險、智慧財產權侵害、偏見與刻板印象強化隱憂、不實資訊危害、資訊安全風險等,皆為各國積極探究及尋求因應策略之重要議題。本文旨在探討歐盟、英國、美國及國際組織於生成式人工智慧監理現況及趨勢,期能作為我國監理政策參照與借鑑。
英國政府要求英國主要監理機關應對AI相關風險時必須考慮:(1)安全、保障與穩健性;(2)透明度與可說明性;(3)公平性;(4)問責制與治理;(5)可競爭性與補救的五項原則。
歐盟:制定法案控管風險及明確義務
2024年3月13日歐盟正式通過《人工智慧法案》(Artificial Intelligence Act, AI Act),為世界首部針對人工智慧(Artificial Intelligence, AI)進行直接規範的法案。該法案旨在平衡AI的風險管理與創新發展需求,提出嚴謹的AI相關風險評估與分類方法,以免除AI威脅人權、民主、法治和環境永續性之相關風險,同時促進AI技術持續創新與發展,並推動國際合作以因應AI的全球化發展趨勢。
該法案採用「基於風險的管理方法」(Risk-based approach),明確將AI應用風險劃分為四類風險等級(附表),並依此確立各不同類型AI系統適用之監理模式。
生成式AI監管、AI風險管理、透明度義務、深度偽造、智慧財產權、隱私保護、風險分級、創新發展、倫理規範、全球合作
分享: