歐盟人工智能法案正式公布:人工智能監管的開創性法律框架
2024-07-16
來源:知產力
本文將探討歐盟人工智能法案的主要條款、適用范圍、基于風險的分類系統以及實施時間表。同時,本文還將探討該法案對人工智能生態系統中各利益相關者的潛在影響,并考慮這一開創性監管所帶來的挑戰和機遇。
一 引言
2024年7月12日,歐盟在人工智能(AI)監管方面邁出了重要一步,在《歐盟官方公報》上正式發布了第2024/1689號條例——歐盟人工智能法案。這項具有里程碑意義的立法包含180個序言、113條條款和13個附件,為歐盟境內人工智能系統的開發、部署和使用建立了全面的框架。該法案旨在保護基本權利,確保公共安全,并促進符合倫理和以人為本的人工智能創新。
本文將探討歐盟人工智能法案的主要條款、適用范圍、基于風險的分類系統以及實施時間表。同時,本文還將探討該法案對人工智能生態系統中各利益相關者的潛在影響,并考慮這一開創性監管所帶來的挑戰和機遇。
二 法案的適用范圍
歐盟人工智能法案建立了全面的監管框架,其管轄范圍延伸至在歐盟境內運營的公共和私營實體。該法案的范圍顯著廣泛,反映了人工智能技術的普及及其對歐盟公民的潛在影響。受該法規約束的主要實體包括:
人工智能系統提供者: 開發旨在投放歐盟市場或在歐盟境內部署的人工智能系統的實體屬于該法案的管轄范圍。第3(2)條將提供者定義為"開發人工智能系統或委托開發人工智能系統,以便以自己的名義或商標將其投放市場或投入使用的自然人或法人、公共機構、機構或其他機構,無論是否收費"。
人工智能系統用戶: 該法案適用于在歐盟境內使用人工智能系統的組織和個人。根據第3(4)條,用戶被定義為"在其權限下使用人工智能系統的任何自然人或法人、公共機構、機構或其他機構,除非該人工智能系統是在個人非專業活動中使用"。
進口商和分銷商: 參與歐盟市場人工智能系統進口或分銷的實體需承擔該法案規定的特定義務。第26條和第27條分別詳細說明了進口商和分銷商確保遵守法規的責任。
第三國實體: 如第2(1)條所述,該法案的域外效力將其適用范圍擴展到位于歐盟境外的人工智能系統提供者和用戶,只要這些系統產生的輸出在歐盟境內使用。這一規定確保影響歐盟公民的人工智能系統受到監管。
該法案的范圍通過一系列豁免和具體應用條款進一步細化:
軍事和國防: 第2(3)條明確排除了專門為軍事目的開發或使用的人工智能系統。
研究與開發: 第2(5a)條為僅用于研究和開發目的的人工智能系統提供了某些豁免。
遺留系統: 第83(2)條概述了在法規適用日期之前投放市場或投入使用的人工智能系統的過渡性條款。
三 主要條款
該法案引入了幾項利益相關者必須遵守的關鍵條款,包括:
基于風險的分類: 人工智能系統根據其風險程度進行分類,對高風險人工智能系統有特定要求,包括透明度、數據治理、文檔記錄和人類監督。
禁止行為: 某些人工智能實踐被視為不可接受并予以禁止,例如那些操縱人類行為以規避用戶自由意志的系統,或允許政府進行"社會評分"的系統。
透明度義務: 與人類互動或用于檢測情緒或基于生物特征數據確定社會類別的人工智能系統必須設計得透明。
數據治理: 高風險人工智能系統必須在高質量數據集上進行訓練、驗證和測試,這些數據集應相關、具有代表性、無偏見、并尊重隱私。
市場監督: 成員國必須指定國家主管機構進行市場監督,以確保法案的執行。
四 實施時間表和基于風險的劃分方法
歐盟人工智能法案采用基于風險的劃分方法,根據人工智能系統對個人權利和安全的潛在影響將其分為四個層級。這種方法影響了該法案的實施時間表,不同條款在不同階段生效。以下部分概述了風險類別和關鍵實施日期:
風險分類框架
1. 不可接受風險(Unacceptable Risk)
定義: 對安全、生計和基本權利構成明顯威脅的人工智能系統。
示例: 政府的社會評分系統,利用特定群體弱點的系統。
監管方法: 根據法案第5條禁止。
2. 高風險(High Risk)
定義: 可能危害安全、基本權利或導致重大不利影響的人工智能系統。
示例: 用于關鍵基礎設施、教育、就業、基本服務、執法、移民管理和司法管理的人工智能。
監管方法: 受法案第6-51條規定的嚴格合規和透明度義務約束。
3. 有限風險(Limited Risk)
定義: 需要特定透明度措施的人工智能系統。
示例: 聊天機器人,情緒識別系統。
監管方法: 法案第52-54條概述的透明度義務。
4. 最小風險(Minimal Risk)
定義: 對公民權利或安全構成最小或無風險的人工智能應用。
示例: 人工智能支持的視頻游戲,垃圾郵件過濾器。
監管方法: 除現有法律外,無額外法律要求。
關鍵實施日期
基于不同的風險級別,該法案的實施涉及幾個重要的截止日期:
2024年8月1日: 歐盟人工智能法案生效(第85條)。
2025年2月2日: 被視為禁止性人工智能實踐的系統必須完全從市場上撤出(第85(1)條)。
2025年5月2日: 發布通用人工智能系統的準則(第52a條)。這些準則將為那些不專為單一應用定制。而可用于各種目的的人工智能系統提供監管期望指導。
2025年8月2日: 對通用人工智能模型實施治理、處罰和風險評估(第52a條)。實施對社會評分系統和未經授權的公共場所實時生物特征識別系統的具體禁令(第5條)。
2025年4月: 引入人工智能應用的實踐準則。人工智能辦公室將負責監督這些準則的制定和實施,為組織提供如何遵守法規的實際指導(第69條)。
2025年8月1日: 高風險人工智能系統的更全面規則生效(第6-51條)。高風險人工智能系統的提供者必須遵守更嚴格的一套規定,旨在確保用戶和受影響方的安全和基本權利。
2026年8月2日: 每個成員國必須至少建立一個人工智能監管沙盒(第53條)。這些沙盒旨在通過提供一個受監管環境,讓人工智能系統在監管監督下進行測試,從而促進創新和合規。
2027年8月2日: 高風險人工智能系統提供者的合規截止日期(第83(3)條)。到此日期,提供者必須確保其提供的所有高風險人工智能系統都完全符合法規要求。
2028年8月2日: 將對該法規進行預定的評估和審查,以評估其有效性(第84條)。這也將是一個考慮是否需要對法規進行任何修訂的機會。
該法案包括促進合規的過渡措施:
第83(a)條允許在2025年8月2日之前投放市場或投入使用的高風險人工智能系統,如果它們經歷重大變化,可以繼續運營。
第83(4)條在特定條件下允許繼續使用產品或系統安全部件中的人工智能系統。
這種分階段實施的方法允許利益相關者逐步調整其做法,優先處理最高風險的人工智能應用。它還為必要的治理結構和合規機制的發展提供了時間。
五 結論
歐盟人工智能法案建立了世界上第一個全面的人工智能監管框架。它體現了歐盟確保人工智能開發和部署與歐洲價值觀和基本權利相一致的承諾。該法案旨在通過為安全、透明度和問責制設定標準,促進創新并培養對人工智能的信任。
通過在整個歐盟范圍內實施統一的規則,該法案創造了一個協調的監管環境,可能簡化了跨成員國運營企業的合規程序。鑒于歐盟的市場規模和監管影響力,該法案可能產生域外效應,影響全球人工智能治理方法。
然而,該法案也帶來了挑戰和憂思。高風險人工智能系統的廣泛要求可能對小型企業和初創公司造成重大合規挑戰。此外,分階段實施的時間表雖然提供了適應時間,但也可能造成監管的不確定性。
毋庸置疑,歐盟人工智能法案預計將在塑造人工智能治理的未來方面發揮關鍵作用。全球的政策制定者和行業領袖將密切關注其實施情況。2028年的預定審查將提供寶貴的機會來評估該法案的有效性并進行必要的調整。
隨著全球社會應對人工智能帶來的挑戰和機遇,歐盟人工智能法案標志著創建監管框架的重要一步,旨在利用人工智能的益處同時減輕其風險。其成功或局限性可能會影響歐盟內部和全球未來的監管努力,可能為數字時代負責任的人工智能治理樹立先例。
封面來源 | Pexels
原題 | 歐盟人工智能法案:人工智能監管的開創性法律框架
作者 | 楊璋(Audrey Zhang Yang) 美國西北大學法學院在讀法學博士生
- 推薦
- 新聞
- 觀點
- 制造
- IT/互聯網
- 軟件信息
- CIO
- CDO
- 人工智能
- 戰略
- 研發
- 生產制造
- IT
推薦
-
11月28日-30日,中國數字化年會將于成都正式開幕,本屆年會以數智萬象 無界新生”為主題,設置2場主論壇、1場高峰論壇、5場專題論壇、4項特色活動、2場頒獎典禮等14項活動,以及2天數字化轉型供需對接展。
-
零次方科技發布了其首款人形機器人,可以在多種不規則路面、復雜地形中長時間穩定行走,且具備優秀的抗干擾性能,即使受到各方向的強沖擊也能保持穩定站立。
-
近日,第四屆“青年科學家502論壇”在南方科技大學舉行,美國國家工程院外籍院士沈向洋做了《通用人工智能時代,我們應該怎樣思考大模型》的主題演講,并給出了他對大模型的10個思考。
-
深度解析Meta Reality Labs的生態布局
-
TeleAI 李學龍團隊提出具身世界模型
-
2024 年 10 月 14 日,第 44 屆中東海灣信息技術展(GITEX Global)在阿聯酋迪拜開幕。紫光股份旗下新華三集團重磅亮相展會,以"精耕務實,為時代賦智慧"為主題,全面展示了公司"云-網-安-算-存-端"的全棧技術能力與國際生態合作成果。
我要評論