人工智能立法的總則與主線
文 | 張凌寒 中國政法大學數據法治研究院教授、博士生導師
人工智能時代已經到來,中國的《人工智能法》的出臺還有多遠?從2023年初OpenAI的ChatGPT驚艷問世,到2024年初Sora再一次引起全球關注,技術發展的腳步日益加快,人工智能正加速改變著產業、社會和世界。人工智能已經成為當前國際技術競爭與規則競爭的關鍵領域。人工智能立法是重點領域、新興領域、涉外領域的綜合立法,承載著“統籌推進國內法治和涉外法治”的使命。《人工智能法》的制度設計既應注重“治當下”,還應兼顧“謀長遠”,具體制度的設計,需平衡發展和安全,對發展需求和安全隱患均予以考慮和回應。既應解決人民群眾、國際社會迫切關心的問題,也從宏觀上把握規制的尺度,特別是技術帶來的生產激勵、公平分配等問題。
第一,確立“立總則,留接口”的總體框架。《人工智能法》如何容納和化解高度不確定性的諸多風險?這一問題可通過《人工智能法》的框架體例來解決:以“總則式”為框架體例,以“廓主線”為主要內容,以“留接口”解決容量問題。首先,《人工智能法》應確立“總則式”的框架體例,定位為人工智能治理的提綱挈領制度。因為《人工智能法》的重要性,現階段的《人工智能法》的立法應參考《民法典》的立法經驗,采用“總則式”的立法體例。“總則式”體例的《人工智能法》應確立人工智能立法的立法目的、基本原則等,表達我國人工智能治理的基本理念與基本立場。其次,《人工智能法》應以“廓主線”為主要內容,主線是指人工智能治理的基本框架脈絡。《人工智能法》的基本框架脈絡可包括一般原則、促進發展、權益保護、安全義務、特殊應用場景、監督管理、國際合作、法律責任等若干板塊內容。最后,《人工智能法》要“留接口”解決容量問題。一是處理領域立法與通用立法需要“留接口”。關于教育、醫療、金融等領域的諸多具體規則,只能交給專門領域立法解決,《人工智能法》只能在有限條款中對特殊問題予以強化,此謂留足“領域接口”。二是處理現有制度與未來發展需要“留接口”。《人工智能法》立法中,可預留授權的制度接口,將技術、要素與產品應用的規制部門確定,將位階較低的制度授權有關部門細化,在滿足一定的產業發展條件后,立法可改變對法律義務與責任的設置,當下的制度設計可預留未來變化的制度“授權接口”。
第二,設定合理的分類分級認定規則。依據風險進行分類分級管理是技術治理規則設定中普遍采用的原則,在歐盟的系列立法推動下,人工智能依據風險分級管控已經成為各國監管普遍采取的手段。2023年歐盟《人工智能法案》(AI ACT)將人工智能風險等級劃為四類,并擴大了人工智能高風險領域的分類范圍,將對人們健康、安全、基本權利或環境的危害考慮在內;對高風險人工智能系統采取多項監管措施,并且新增規定了相關義務,體現了折中草案對于人工智能監管趨勢趨嚴。但歐盟對風險的認定標準和監管成本過高,與我國立法的標準體系難以完全兼容。風險規制既需反映當下迫切的治理需求,也需要留足應對未來發展與不確定性的空間。我國也確立了算法、場景、主體、數據多個領域分級分類監管制度,但人工智能的分級分類標準需做出針對性的制度安排。《人工智能法》不宜在現階段技術產業發展走向尚不十分明朗的情況下劃定不同級別,而應劃定“紅線底線”以滿足當下監管需求,并為不確定性的發展留足空間。歐盟對風險的認定標準包括處理應用場景、影響權利的類型等,這與我國國內立法的話語體系難以兼容。我國可考慮建立關鍵人工智能特殊監管制度,在人工智能一般監管要求基礎上,實行重點監管,并可以與我國已有的關鍵信息基礎設施保護制度實現對接。關鍵人工智能產品與服務包括:涉及公共通信和信息服務、能源、交通、水利、金融、公共服務、電子政務、國防科技工業等重要行業和領域的;對公民的生命、自由、人格尊嚴等重大人身權益有重要影響的;在算力、參數、用戶規模等方面達到一定級別的通用人工智能系統。立法既應與已有的關鍵信息基礎設施制度對接,也應從重大權益影響角度進行制度覆蓋,并對未來可能造成系統性生存性風險的人工智能治理予以回應。
第三,完善人工智能動態監測、預警、響應機制。人類與人工智能未來將長期共存,技術與風險的不確定性將是技術治理的常態。應對這種“常態”,應在《人工智能法》中建立人工智能風險的動態監測、預警、響應機制。如,國家設立人工智能專家委員會,定期通報人工智能技術的發展、部署和應用,并且動態監測風險、共享風險評估、實施安全事件報告、建立應急響應機制。這一系列風險監測、預警、共享、報告和響應的體制機制將成為能夠長遠監管人工智能風險的制度。再如,人工智能產品和服務的研發者、提供者應當建立人工智能安全事件決策和處置流程,對于引起社會輿論、產生廣泛社會影響的人工智能安全事件,應當及時向主管部門報告。這一制度將有助于公眾更好地了解人工智能,并推動國際社會就人工智能進化的速度和影響達成共識,逐步建立標準,以更加科學地衡量人工智能對社會生活各個領域產生的影響。
第四,對當下和長遠發展的人工智能治理共性問題做出制度安排。一是從當下來看,人工智能與知識產權的緊張關系成為世界各國立法面臨的難題。在立法層面,歐盟、美國、日本等加快了推進人工智能版權立法的進程。在司法層面,國內外已有多起有關人工智能生成內容的可版權性、訓練數據版權侵權等訴訟。在輸入端,訓練數據的獲取與使用始終面臨合法性問題,國內外有關訓練數據版權侵權的案件已經呈現出井噴局面,各方對于訓練數據能否構成合理使用持不同立場。在輸出端,關于人工智能生成內容的可版權性問題引發了學界廣泛的討論,“國內AI生成圖片著作權侵權第一案”的裁判更是引發了各界關注。基于我國當下“世界領先的追趕者”角色,立法應盡快協調人工智能產業發展與知識產權保護制度,為技術產業高質量發展創造條件。二是從長遠來看,通用人工智能初現端倪,治理具有比人類計算能力強大的技術系統成為各國必須通力合作的議題。《人工智能法》宜預留通用人工智能的規制條款,對于未來可能出現的非限定任務的、多領域通用的強大人工智能系統設置更高的安全規范。
第五,根據現行技術產業發展階段探索新型監管制度。如各方廣泛關注的沙盒監管制度,是允許企業在真實的市場環境中測試產品、服務或商業模式,同時又能將新技術潛藏的風險控制在一定范圍。美國已經在人工智能金融、自動駕駛等領域相繼開展沙盒監管測試,并鼓勵參與企業在沙盒內開展紅隊對抗、自律管理等活動。歐盟《人工智能法案》第五編專門規定了沙盒制度,細致規定了沙盒制度的運行和相應的監管措施,同時還特別強調中小企業使用沙盒的優先準入和費用減免制度,被認為是歐盟保護本土企業、增強產業競爭力的重要制度。為支持人工智能創新發展,相關部門可以探索人工智能產品與服務監管的試點機制,設定監管試點技術的準入條件、試點范圍與期限、試點的運行規則等,明確試點目的、定期與試點企業展開技術交流和治理經驗共享,為人工智能研發提供必要測試環境的同時提高監管機關自身的監管能力。對初創企業、小微企業等難以獲得專用設施、缺乏財力人力的市場主體,可以適當減輕或豁免其進入試點的條件。
筆者確信,中國應當有一部《人工智能法》來彰顯立場,為人工智能技術產業發展保駕護航。也只有在法律這一位階層面制定人工智能法律制度,才能夠統籌協調并確立國家層面人工智能治理制度,真正實現立法先導,發揮法治在人工智能發展治理領域固根本、穩預期、利長遠的基礎性作用。