-
在 AI 快速進入到民眾生活與各大產業的今天,其影響力已超越單純的技術創新,進入必須由法律與制度加以規範的階段。歐盟於 2024 年正式通過《人工智慧法案》,並計劃於今年實施,這是全球首部全面針對 AI 的法律框架,採取「風險分級管理」原則,為不同風險等級的 AI 應用設立明確規範與義務。
這不僅是歐洲的法律,更是所有想在全球市場中發展 AI 產品與服務的企業都必須關注的新標準,台灣也不落人後,正積極打造一個能獲國際信賴且合乎道德、負責的人工智慧發展環境。
本文將帶你快速掌握 AI Act 人工智慧基本法的重要性、規範重點及風險分級,並快速了解該如何在創新與合規之間取得平衡,面對未來競爭力的關鍵考驗。
AI Act 人工智慧基本法之重要性
人工智慧 (Al- Artificial Intelligence)正在深刻改變全球產業樣貌與日常生活,同時也帶來了不同的新機會與新挑戰。舉例來說,人工智慧能有效提升醫療的診斷效率、強化詐欺偵測能力與推動教育平權等,但同一時間亦衍生出潛在的資料外洩、個資濫用、演算法偏見及資訊落差等問題,除了對社會公平與個人權益構成風險外,最嚴重的後果更可以是危及生命安全以至國際衝突・
若要掌握人工智慧所帶來的各種利益,企業及政府機關必需同時考慮人工智慧所帶來的各種挑戰並有效管理其潛在風險,為此,台灣正積極打造一個可信賴且負責任的人工智慧發展環境,期望透過有效規範,引導技術發展朝向"持續提升資訊安全、社會福祉與促進永續發展"的目標邁進,並透過制定"人工智慧基本法",強化人工智慧的治理與規範機制。
AI Act 人工智慧基本法規範重點
“人工智慧基本法” 草案明確說明了對於人工智慧系統的定義,以及特別強調保障人權、安全、隱私與公平等核心價值,確保人工智慧的應用能在符合社會公義與法治原則的前提下,為整體社會帶來正面影響。以下為台灣 “人工智慧基本法” 草案中對於基本治理的七大原則:
七大原則 |
說明 |
永續發展 |
AI 研發與應用需兼顧社會公平與環境永續,透過教育與培訓降低數位落差。 |
人類自主 |
尊重人類自主權與基本人權,確保 AI 可受人類監督,符合法治及民主價値。 |
隱私保護及資料治理 |
遵守資料最小化與隱私保護原則,防止資料外洩,促進非敏感資料合理開放與再利用。 |
資安與安全 |
建立資安防護措施,防範威脅與攻擊,確保 AI 系統穩健與安全運作。 |
透明與可解釋 |
對 AI 系統與其輸出資訊提供適當揭露與標記,提升決策過程可解釋性與使用者信任。 |
公平不歧視 |
預防演算法與資料偏差,避免因性別、年齡等個人特質造成歧視性決策。 |
問責 |
明確責任歸屬與內部治理,承擔社會責任,強化問責機制並定期審查公開相關措施。 |
AI Act 人工智慧基本法風險分級與監管機制
在推動台灣 "人工智慧基本法" 時,僅有規範仍不足以應對人工智慧的潛在風險・台灣 "人工智慧基本法" 進一歩参考並採用歐盟人工智慧法案(EU AI Act)裡的「AI風險分級與監管機制」,以系統性方式辨識、管理並降低人工智慧在各種應用場景下可能產生的威脅和衝擊,並且對於不同級別的風險採取相對應的因應措施。
人工智慧風險分級與監管機制將人工智慧應用場景區分為不可接受風險、高風險、一般風險及低風險人工智慧系統,依分級賦予不同管制義務:
- 不可接受風險:概念上專指被認定為對人類安全、基本權利構成明顯侵害的系統,因此全面嚴格禁止。
- 高風險:概念上事指涉及對人民健康、安全、基本權利產生影響的人工智慧系統,因此需履行事前向政府機關申報、定期檢驗與監控,並且落實從人工智慧系統開發、部署、使用到退場的每個階段,都納入風險管理、倫理考量與法規遵循。
- 一般風險:概念上專指風險較低,可能對用戶造成誤導的人工智慧系統,因此需加強透明度、資訊標示及使用說明。
- 低風險:概念上專指人工智慧系統不直接影響用戶權益為前提,因此原則上不需經政府監管。
歐盟人工智慧法案中明確規定,未來若企業違反法案將面臨重額罰款,以確保企業嚴格遵循相關規範。世界各國,包含台灣在推動人工智慧基本法時,也都參考歐盟人工智慧法案的國際經驗,致力於建立更完善的人工智慧治理框架。
Electrum Cloud 蔚藍雲提供專業 Al 治理諮詢服務協助企業確保法規合規與管理 AI 風險
在制定與實施 AI 治理策略時,需透過全面的分析與評估,以確保 AI 治理效益的最大化。蔚藍雲擁有專業 AI 治理諮詢團隊,透過「發現」、「設計」以及「執行」三個階段,協助企業深入理解與實現 AI 治理策略。藉由蔚藍雲 AI 治理策略諮詢服務,企業可以清楚識別與管理 AI 風險、確保法規合規、設計内部治理制度、提升 AI 決策透明度,以及推動 AI 變革管理,讓 AI 發展同時兼顧安全與負責任 AI 原則。