在人工智能展示了其非凡的創造力以及潛在的危害力之后,越來越多力量加入了呼吁監管的隊伍之中。
近日,為確保歐洲人工智能以人為本的道德發展,歐洲議會內部市場委員會和公民自由委員會以 84 票贊成、7票反對、12票棄權通過了《人工智能法案》的談判授權草案。修改后的《人工智能法案》針對人工智能基礎模型、價值鏈責任和最近大熱的生成式人工智能做出回應,同時研究了針對企業尤其是中小企業和初創企業的豁免條款。
大型網絡平臺推薦系統被列入高風險
歐盟關于人工智能立法的進程,最早可以追溯到2018年的《人工智能時代:確立以人為本的歐洲戰略》報告,報告解讀了歐盟在人工智能領域的最新發展現狀;2021年4月21日,歐盟委員會正式提出《人工智能法案》提案,世界范圍內第一部針對人工智能進行規制的法律邁開制定的腳步。
北京師范大學法學院博士生導師、中國互聯網協會研究中心副主任吳沈括在接受21世紀經濟報道記者采訪時表示,歐盟的立法強調結合歐盟自身的經濟技術、現狀,同時服務于歐盟打造世界級經濟體和確保數字主權、技術主權的政策目標,在強調保障創新發展的同時突出體現了以風險管理為導向的監管思路,它的制定出臺會對世界人工智能產業發展生態和人工智能監管走向帶來非常大的影響。
監管框架定義了人工智能的4個風險級別:不可接受的風險、高風險、風險有限、最小或無風險。這些規則基于風險制定,并根據人工智能可能產生的風險級別為提供者和用戶規定義務。
風險級別上,所有被認為對人們的安全、生計和權利構成明顯威脅的人工智能系統都被認為是不可接受的風險而將被禁止,包括部署潛意識或有目的地操縱技術、利用人們的弱點或用于社會評分。
這次法案大幅修改了不可接受的風險相關名單,禁止侵入性和歧視性地使用人工智能系統,例如公共場所的“實時”遠程生物特征識別系統,使用敏感特征的生物識別分類系統,預測性警務系統等都被禁止。
而在高風險級別方面,歐洲議會議員擴大了高風險領域的分類,對人們健康、安全、基本權利或環境造成危害的人工智能屬于此類。高風險人工智能系統在投放市場之前將受到嚴格的義務約束。同時他們認為,被認定為大型網絡平臺的社交媒體平臺(根據《數字服務法》擁有超過 4500 萬用戶)所使用的推薦系統,會對網絡安全、公眾輿論、選舉等產生強烈影響,也被列入高風險的人工智能。
值得注意的是,《人工智能法案》認為,人工智能系統的概念應明確定義,并與從事人工智能工作的國際組織的工作密切一致,以確保法律的確定性、統一性和廣泛接受性,同時提供靈活性以適應該領域的快速技術發展。此外,它應該基于人工智能的關鍵特征,如學習、推理或建模能力,以便將其與更簡單的軟件系統或編程方法區分開來。
厘清產業鏈各主體責任分配
《人工智能法案》針對人工智能價值鏈責任的義務劃分、基礎模型提供者和生成式AI等最新問題做了相應回應。
在人工智能價值鏈責任分配上,法案中提到,任何分發者、進口者、部署者或其他第三方應被視為高風險人工智能系統的提供者,需要履行相應的義務。如在高風險人工智能系統上標明名稱、聯系方式,提供數據規格或數據集相關信息,保存日志等。
“在AIGC產業鏈中,具有多種形態。例如,在模型即服務(MaaS)的產業模式下,可能上游基礎模型的服務提供者是供應者,中間會有中間層負責對點工具的開發;到了下游也就是具體的應用場景中,可能會有進一步的直接面向個人用戶的服務提供者。此外,開源模式下,有人利用開源軟件結合數據進行微調和部署,在這個領域當中,這個供應者、分發者、進口者和部署者可能就又是不一樣的。”對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣介紹,歐盟的《人工智能法案》較為清晰地厘清了AIGC產業鏈上的主體責任,同時根據主體之間的具體角色、具體特質進行了劃分,很大程度上體現了公平的責任。
在吳沈括看來,在立法思路上,歐盟慣常于剖析分解生態當中上下游不同角色之間的作用地位,并根據這些因素劃定義務和責任范圍。對于責任的劃分基于調研得出,上下游不同企業發揮什么樣的作用就承擔什么樣的角色。同時,根據他們對于這個生態的影響和價值,依據比例原則配置相應的義務內容,設定相應的處罰強度。
而在通用人工智能方面,《人工智能法案》也對基礎模型提供者的義務進行了規定,如需要評估和降低風險,遵守設計、信息和環境要求,在歐盟數據庫中注冊。通用型人工智能是指非為特殊目的進行特別設計的具有廣泛適用性的人工智能系統,其一般功能包括但不限于圖像和語音識別、音頻和視頻生成、模式檢測、問答、翻譯和其他功能。
對于GPT這樣的生成式基礎模型來說,基礎模型的設計和開發必須有足夠的保障措施,確保其符合歐盟法律。同時,根據透明度規則的要求,只要文本是 AI 生成的,它就必須披露;需要設計模型以防止其生成非法內容;對于訓練數據,需要提供版權法所涵蓋的詳細摘要。
張欣提示,關于人工智能所使用的數據,此次法案存在算法透明度和知識產權兩條路徑。未來生成式人工智能的產業鏈發展當中,從知識產權角度來說,對于數據集的訓練、所著圖片文字如何進行合理的利益分配提供了借鑒的思路。
關切中小企業和初創企業
21世紀經濟報道記者梳理發現,在監管方式上,《人工智能法案》除提出監管沙盒外,還提到了高風險人工智能系統數據庫。這是由歐盟與各成員國合作建立的一個公共數據庫,相關供應商應按照相應要求將規定的數據輸入該庫中。同時規定,數據庫中的信息應向公眾免費提供。
在張欣看來,該數據庫是對算法透明度、公眾知情權、商業秘密三者之間一個較為平衡的做法。目前來看,結合商業秘密的考量,算法可解釋性非常低。在這種情況下,對于公眾來說要想去理解它的運行邏輯、預見可能產生的風險,其實是非常難的。“這種做法類似于我們國家的算法備案,通過建立數據庫向公眾進行公開,建立了一個比較好的合理的透明度。在人工智能領域,深度神經網絡雖然可解釋性有限,但用于訓練的數據集通常可以通過數據解釋的方式提升整體的透明度。”
“這是一個比較前沿的實踐方式,目的是建立有關高風險系統的一個信息數據池,匯聚各種信息和數據,幫助各層級監管執法乃至社會監督的過程當中,對于高風險系統有一個更為直觀、更為動態和前沿的認知,而且這個數據庫處于持續更新的狀態。”吳沈括對21世紀經濟報道記者表示。
同時,《人工智能法案》對于中小企業、初創企業也給予了相應的豁免。如“第28(a)條 單方面強加給中小企業或初創企業的不公平合同條款”規定,一個企業單方面強加給中小企業或初創企業的相關合同條款或措施,如果是不公平的,則對后一企業沒有約束力。同時監管沙盒的其中一個很重要目標,便是要確保中小企業和初創企業能夠輕松訪問沙盒,積極參與開發和測試。
就像聯合報告員Dragos Tudorache所表示的,“我們一直致力于支持歐洲的人工智能創新,為初創企業、中小企業和行業提供發展和創新的空間”。
支持中小企業創新,在張欣看來非常重要。一方面,大模型的研發可能出現新一輪的技術壁壘,對于監管來說,相關政策在制定過程中需要對相關利益分配進行適當平衡,否則就可能對于中小企業和初創企業產生擠壓作用。另一方面,人工智能技術的創新和組織規模、架構之間有著非常重要的相關性。以OpenAI為例,作為一個只有300人團隊的中小企業研發了ChatGPT。
吳沈括認為這是歐盟關于平衡安全監管和發展創新之間的一個機制創新。反映了歐盟一貫以來對于中小企業發展的扶持優待政策,同時也跟歐盟境內超過95%以上屬于中小企業的經濟基礎是相匹配的,它的核心是在監管的同時為中小企業的創新,留下必要的發展空間。
針對最近的談判授權草案,歐洲議會預計將在 6 月 12 日至 15 日的會議期間進行表決。得到批準之后,相關法案便可進入下一立法環節,一旦獲得批準,歐盟《人工智能法案》將有望成為全球首部有關人工智能的法規。
張欣表示,歐盟的人工智能法案為相關國家立法提供制度參考,規則與規則之間的嵌套和搭配非常精細,踐行了基于風險的人工智能分類分級治理思路。除此之外,該治理規則得到一整套人工智能的監管和治理工具,如認證、評估等進行支撐,
但是她也提出了一個更加值得思考的問題。“歐盟雖然立法精細,但是歐盟的整個人工智能企業、數字化企業的發展卻沒有那么的先進。所以從更廣泛、更宏觀的角度來講,人工智能或者說高新科技領域的立法,和高新科技領域的創新之間,相關性到底是怎么樣的,也可能值得我們去觀察、思考。”
本文標題: 歐盟《人工智能法案》明確責任 建立高風險AI系統數據庫
本文地址: http://3824dh.com/brand/news-a9kp6a50e.html
內容均來源于網絡,錯誤糾正或刪除請發郵件,收件郵箱kefu@huangye88.com
2009-2024 黃頁88版權所有 京ICP備2023012932號-1 │ 京公網安備 11010802023561號 京ICP證100626
內容均來源于網絡,錯誤糾正或刪除請發郵件,收件郵箱kefu@huangye88.com