永續學院|關於大型語言模型人工智慧的六大風險

 

洞察觀點

 

關於大型語言模型人工智慧的六大風險

副研究員鄧翔靖  (2024/09/04)    《永續學院編輯室》


最近參加了一場關於「數位轉型」的工作坊,談的卻是組織應該如何使用「人工智慧」。當講師面露自信的神情說,可以用AI來撰寫最頭疼的工作報告時,現場立刻有人舉手,那是一位鄉鎮級區公所的資深科長。

科長問道:「您說的人工智慧工作報告可信度有多少?」

專業講師不假思索便答:「這取決於你使用的模型、工具及數據準確度。」

科長說:「所以若數據準確,就能得到一份可靠的工作報告?」

講師點頭,但科長隨即又說:「但根據本科的工作經驗,相同的數據,人工智慧可能會提出兩種不同結論的報告,同時,交由人工智慧計算出來的結果,也被發現有15%到20%的錯誤!」

講師趕緊說:「這與你們投入的成本有關,如果貴單位有足夠的投資,對工具進行更精確的命題與使用,就能夠提高工作報告的正確性。」

科長又問:「所謂的成本要花到多少錢,才能確認我得到的資料是正確的?」

講師想了一下,搖搖頭說:「這個問題我現在無法回答你。」

 

經過這一段對話之後,我當下思索的不再是人工智慧到底能給我什麼?而是,我能相信人工智慧到什麼程度?

對於報告數字結果的正確性,公務員恐怕是最斤斤計較的,畢竟涉及到人民生命財產、以及資料登載不實的問題,弄不好可是要丟飯碗的。至於一般企業能信任AI到什麼程度?這反而是產業現場最容易被忽略的問題。AI「信任」風險會發生在責任歸屬不清的場域。當公司認為使用了AI工具,可以協助員工提高工作效率,因此要求在較短的時間內完工。於是員工便將工時與責任,理所當然地轉嫁到AI上。而以目前AI法規未臻周延,即使出了什麼爭議,也很難究責或向提供AI服務的公司求償。

為了更了解人工智慧的信任風險,永續學院對企業進行了觀察與研究,為讀者整理可能發生的問題,讓企業在使用AI時特別留意。以下就以最嚴苛的「財務報表」產製,來說明可能存在的風險及其應對方法:

人工智慧AI應用風險

分享:


 

聯絡我們

104 台北市中山區德惠街16-8號7樓
電話:總機 +886 (2) 2586-5000
傳真 +886 (2) 2586-8855
E-mail:bussiness@tier.org.tw