完善人工智能法律法規(guī)體系
文 | 浙江大學(xué)數(shù)字法治研究院研究員 李汶龍
生成式人工智能技術(shù)的快速發(fā)展,正在重塑信息生產(chǎn)、傳播與利用方式。當(dāng)前,大模型訓(xùn)練、智能推薦和內(nèi)容生成等應(yīng)用場(chǎng)景不斷擴(kuò)展,人工智能在數(shù)據(jù)采集、模型訓(xùn)練與內(nèi)容輸出等多個(gè)環(huán)節(jié),深度嵌入個(gè)人信息處理過程,使個(gè)人信息保護(hù)面臨一系列挑戰(zhàn)。2026年政府工作報(bào)告提出“完善人工智能治理”。《中華人民共和國(guó)國(guó)民經(jīng)濟(jì)和社會(huì)發(fā)展第十五個(gè)五年規(guī)劃綱要》提出,“完善互聯(lián)網(wǎng)內(nèi)容管理、網(wǎng)絡(luò)平臺(tái)治理等法規(guī)。嚴(yán)厲打擊網(wǎng)絡(luò)違法犯罪行為,加強(qiáng)個(gè)人信息保護(hù)……完善人工智能領(lǐng)域法律法規(guī)、政策制度、應(yīng)用規(guī)范、倫理準(zhǔn)則,健全算法備案、透明度管理、安全評(píng)估等制度”。我國(guó)采取以部門規(guī)章和專項(xiàng)規(guī)則為主的敏捷治理路徑,圍繞算法推薦、深度合成、生成式人工智能等關(guān)鍵技術(shù)領(lǐng)域,逐步構(gòu)建起一套具有實(shí)踐導(dǎo)向的人工智能治理體系。隨著人工智能專門立法逐步進(jìn)入議程,如何在既有法律體系框架下實(shí)現(xiàn)規(guī)則整合,尤其是如何在延續(xù)《中華人民共和國(guó)個(gè)人信息保護(hù)法》制度基礎(chǔ)的同時(shí),吸納近年來人工智能治理實(shí)踐所積累的經(jīng)驗(yàn),成為一個(gè)值得關(guān)注的問題。
我國(guó)人工智能治理在專項(xiàng)規(guī)則與基礎(chǔ)法律銜接上面臨的挑戰(zhàn)
近年來,我國(guó)人工智能治理已初步形成以快速響應(yīng)為導(dǎo)向的敏捷治理路徑。在人工智能技術(shù)快速演進(jìn)的背景下,我國(guó)通過部門規(guī)章和專項(xiàng)規(guī)則,在算法推薦、深度合成、生成式人工智能等重點(diǎn)領(lǐng)域持續(xù)推進(jìn)制度建設(shè),從而使監(jiān)管及時(shí)回應(yīng)技術(shù)變化,為產(chǎn)業(yè)發(fā)展提供必要的試驗(yàn)空間,在實(shí)踐中不斷積累治理經(jīng)驗(yàn)。從效果上看,敏捷治理不僅提升監(jiān)管的靈活性,而且使我國(guó)在全球人工智能治理體系中逐步形成具有自身特色的制度路徑。一方面,這種模式能夠在發(fā)展與安全之間保持動(dòng)態(tài)平衡;另一方面,也為后續(xù)更高層級(jí)的立法提供豐富的實(shí)踐基礎(chǔ)。
在上述多層次結(jié)構(gòu)中,基礎(chǔ)法律體系發(fā)揮著支撐作用。《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)數(shù)據(jù)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》(以下簡(jiǎn)稱《個(gè)人信息保護(hù)法》),為我國(guó)網(wǎng)絡(luò)數(shù)據(jù)安全管理提供了規(guī)范依據(jù)。其中,《個(gè)人信息保護(hù)法》確立了合法性基礎(chǔ)、目的限制、最小必要、公開透明、責(zé)任追究等一整套原則,為各類數(shù)據(jù)處理活動(dòng)提供基礎(chǔ)框架。
可以說,在人工智能領(lǐng)域,治理體系逐步形成以基礎(chǔ)法律為支撐、專項(xiàng)規(guī)則為補(bǔ)充、未來專門立法為方向的多層次結(jié)構(gòu)。隨著人工智能應(yīng)用場(chǎng)景的拓展,現(xiàn)有規(guī)則體系的結(jié)構(gòu)性問題逐漸顯現(xiàn)。尤其是在個(gè)人信息保護(hù)領(lǐng)域,人工智能專項(xiàng)治理規(guī)則雖以《個(gè)人信息保護(hù)法》為制度基礎(chǔ),但在具體制度設(shè)計(jì)、規(guī)則適用和責(zé)任配置上,二者之間的銜接仍存在一些環(huán)節(jié)有待完善。例如,人工智能專項(xiàng)規(guī)則快速擴(kuò)展,但整體統(tǒng)合不足;《個(gè)人信息保護(hù)法》在人工智能場(chǎng)景中的適用邊界和實(shí)施路徑有待明確,部分制度工具尚未有效激活;在專項(xiàng)規(guī)則與基礎(chǔ)法律關(guān)系尚未理順的情況下,執(zhí)法標(biāo)準(zhǔn)、企業(yè)合規(guī)和司法裁判均面臨一定不確定性,影響治理效能與產(chǎn)業(yè)預(yù)期。
從治理邏輯看,《個(gè)人信息保護(hù)法》以個(gè)人信息處理活動(dòng)為中心,強(qiáng)調(diào)數(shù)據(jù)處理的合法性基礎(chǔ)與個(gè)人權(quán)益保護(hù),其核心是一套圍繞“數(shù)據(jù)”的規(guī)范體系;而人工智能專項(xiàng)規(guī)則,更多以技術(shù)服務(wù)提供者為監(jiān)管對(duì)象,圍繞模型、算法及內(nèi)容生成展開,形成以技術(shù)應(yīng)用為導(dǎo)向的治理邏輯。二者在規(guī)則出發(fā)點(diǎn)和規(guī)范重心上的差異,使得同一治理對(duì)象在不同規(guī)則體系下呈現(xiàn)出不同的規(guī)制方式。
從合規(guī)機(jī)制看,在算法備案、安全評(píng)估、內(nèi)容標(biāo)識(shí)等領(lǐng)域,不同規(guī)則體系均提出相應(yīng)要求,在適用條件、監(jiān)管主體及具體程序上并未形成統(tǒng)一標(biāo)準(zhǔn),容易導(dǎo)致企業(yè)在實(shí)踐中面臨重復(fù)備案、重復(fù)評(píng)估、標(biāo)準(zhǔn)不一致等問題。
從風(fēng)險(xiǎn)覆蓋看,隨著大模型技術(shù)的發(fā)展,數(shù)據(jù)抓取、模型訓(xùn)練和內(nèi)容輸出所帶來的新型風(fēng)險(xiǎn)不斷顯現(xiàn),但這些風(fēng)險(xiǎn)尚未在《個(gè)人信息保護(hù)法》的既有框架中得到充分回應(yīng)。盡管該法已確立最小必要、公開透明、可問責(zé)等基本原則,并在自動(dòng)化決策等方面提供具體規(guī)則,但在模型層面和系統(tǒng)性風(fēng)險(xiǎn)治理方面如何適用尚待進(jìn)一步明確。
上述三方面問題對(duì)監(jiān)管實(shí)踐、企業(yè)合規(guī)及司法適用的現(xiàn)實(shí)影響,可以從三個(gè)方面加以分析:
專項(xiàng)規(guī)則中“一般義務(wù)嵌入特殊場(chǎng)景”的問題。以擬人化人工智能等專項(xiàng)治理規(guī)則為例,其中涉及的能力建設(shè)、風(fēng)險(xiǎn)防控和安全評(píng)估等要求,本質(zhì)上具有跨場(chǎng)景的普遍適用性,并非僅限于特定技術(shù)類型或者應(yīng)用場(chǎng)景。然而,這類規(guī)則往往針對(duì)特定應(yīng)用場(chǎng)景,其制度效力往往局限在一定范圍之內(nèi)。一方面,一些具有一般意義的治理要求未能上升為統(tǒng)一規(guī)則;另一方面,由于《個(gè)人信息保護(hù)法》并未明確規(guī)定類似義務(wù),其法律基礎(chǔ)難以追溯,也難以對(duì)其正當(dāng)性和有效性進(jìn)行全面評(píng)估。
不同位階規(guī)則的適用順序和關(guān)系問題。當(dāng)前,人工智能專項(xiàng)規(guī)則在立法目的上與《個(gè)人信息保護(hù)法》保持一致,但實(shí)踐中,當(dāng)專項(xiàng)規(guī)則與基礎(chǔ)法律在適用范圍或義務(wù)要求上出現(xiàn)交叉時(shí),缺乏清晰的優(yōu)先適用標(biāo)準(zhǔn),容易導(dǎo)致執(zhí)法與合規(guī)中的不確定性。有學(xué)者提出,應(yīng)當(dāng)對(duì)《個(gè)人信息保護(hù)法》進(jìn)行針對(duì)性擴(kuò)展或細(xì)化,以回應(yīng)人工智能場(chǎng)景中的新型問題。無論采取何種路徑,明確兩類規(guī)則之間的關(guān)系,是十分必要的。
整體規(guī)則體系的系統(tǒng)整合問題。從發(fā)展路徑看,我國(guó)人工智能治理仍處于“邊探索、邊完善”的階段,現(xiàn)有規(guī)則既包括基于具體技術(shù)類型的專項(xiàng)規(guī)制,如《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,又包括橫向適用于多個(gè)場(chǎng)景的一般性治理措施,如《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法》,同時(shí)還存在針對(duì)特定應(yīng)用場(chǎng)景的差異化要求,如《人工智能擬人化互動(dòng)服務(wù)管理暫行辦法》。這種多路徑并行的發(fā)展方式有助于快速回應(yīng)現(xiàn)實(shí)需求,但隨著規(guī)則數(shù)量不斷增加,碎片化特征也日益突出。這需要在保持靈活性的同時(shí),推動(dòng)規(guī)則體系實(shí)現(xiàn)結(jié)構(gòu)性整合,在條件成熟時(shí)探索體系化的可能路徑。
人工智能專項(xiàng)規(guī)則與《個(gè)人信息保護(hù)法》的銜接協(xié)調(diào)具有多方面重要意義。在監(jiān)管層面,容易出現(xiàn)職責(zé)交叉與標(biāo)準(zhǔn)不一的情況;在合規(guī)層面,企業(yè)在理解和執(zhí)行規(guī)則時(shí)面臨較高的不確定性,合規(guī)成本顯著上升;在司法層面,則難以形成穩(wěn)定一致的裁判標(biāo)尺。
在制定之初,《個(gè)人信息保護(hù)法》并未針對(duì)大模型訓(xùn)練、數(shù)據(jù)抓取、模型輸出等人工智能特有問題作出專門設(shè)計(jì),而是以一般性個(gè)人信息處理活動(dòng)為核心。盡管其原則體系具有一定前瞻性,具備適用于人工智能場(chǎng)景的制度潛力,但是在具體落地層面,相關(guān)規(guī)則尚未得到充分展開和系統(tǒng)適用。人工智能專項(xiàng)規(guī)則在實(shí)踐中不斷細(xì)化具體義務(wù),在一定程度上彌補(bǔ)了基礎(chǔ)法律在特定場(chǎng)景中的不足。由于兩類規(guī)則在適用方式上的差異,其協(xié)同關(guān)系仍有待進(jìn)一步明確。因此,我國(guó)人工智能治理體系雖已經(jīng)形成基本結(jié)構(gòu),但在人工智能技術(shù)持續(xù)演進(jìn)的背景下,如何推動(dòng)這一多層次制度體系實(shí)現(xiàn)有效整合,尤其是強(qiáng)化與《個(gè)人信息保護(hù)法》的制度協(xié)同,已成為重要課題。
立足《個(gè)人信息保護(hù)法》優(yōu)化人工智能治理規(guī)則體系
當(dāng)前,在人工智能立法逐步提上議程的背景下,首先需回答的一個(gè)關(guān)鍵問題是:人工智能立法是否就能解決上述體系銜接問題?
需要強(qiáng)調(diào)的是,人工智能治理的核心問題并未脫離數(shù)據(jù)治理范疇。無論是大模型訓(xùn)練中的數(shù)據(jù)來源,還是模型輸出引發(fā)的隱私風(fēng)險(xiǎn),都圍繞個(gè)人信息的收集、處理與使用展開。即便在模型層面出現(xiàn)新型風(fēng)險(xiǎn),很大程度上仍需回溯至數(shù)據(jù)層加以回應(yīng)。因此,《個(gè)人信息保護(hù)法》所確立的合法性基礎(chǔ)、目的限制、最小必要及可問責(zé)等制度原則,不僅沒有因人工智能技術(shù)的發(fā)展而失效,反而成為人工智能治理的重要基礎(chǔ)。《個(gè)人信息保護(hù)法》中關(guān)于自動(dòng)化決策、信息透明及責(zé)任追究等制度安排,均具有在人工智能場(chǎng)景中進(jìn)一步適用和落實(shí)的空間。如果在制度尚未被充分運(yùn)用的情況下即轉(zhuǎn)向全新的立法框架,容易陷入重復(fù)構(gòu)建規(guī)則體系的窠臼。
從全球治理經(jīng)驗(yàn)看,人工智能治理格局仍處于高度不穩(wěn)定發(fā)展階段。各國(guó)在治理路徑上的探索尚未形成穩(wěn)定共識(shí),圍繞原則性規(guī)范與專項(xiàng)規(guī)則之間關(guān)系的制度安排仍在持續(xù)調(diào)整。人工智能技術(shù)呈現(xiàn)出高度不確定性和快速迭代特征,關(guān)鍵性突破的發(fā)生路徑與時(shí)間節(jié)點(diǎn)難以預(yù)判,規(guī)則在實(shí)踐中往往呈現(xiàn)出反復(fù)調(diào)整甚至被動(dòng)回調(diào)的狀態(tài),部分制度不得不通過延后實(shí)施或降低監(jiān)管強(qiáng)度加以修正。以歐盟為代表的人工智能治理路徑采取“新立法疊加既有體系”的模式,凸顯出現(xiàn)行治理模式與技術(shù)發(fā)展之間的深層錯(cuò)位。歐盟的《人工智能法》與《通用數(shù)據(jù)保護(hù)條例》,在適用范圍、風(fēng)險(xiǎn)分類與權(quán)利結(jié)構(gòu)上,仍存在一定程度的交叉與張力。這種并行推進(jìn)的方式,雖有助于應(yīng)對(duì)技術(shù)風(fēng)險(xiǎn),但也存在規(guī)則適用邊界不清、合規(guī)路徑復(fù)雜化等問題,反映出協(xié)調(diào)機(jī)制方面的不足。
我國(guó)目前通過既有法律框架的延展與嵌入來實(shí)現(xiàn)規(guī)制目標(biāo),在自動(dòng)化決策、信息透明、個(gè)體權(quán)利與責(zé)任配置等方面,《個(gè)人信息保護(hù)法》提供了較為系統(tǒng)的法律依據(jù)。在人工智能專門立法尚未出臺(tái)之前,可以優(yōu)先強(qiáng)化其與算法推薦、深度合成、生成式人工智能等專項(xiàng)規(guī)則之間的銜接,實(shí)現(xiàn)對(duì)新技術(shù)場(chǎng)景的有效覆蓋。一方面,通過提升規(guī)則之間的協(xié)調(diào)性與可預(yù)期性,可降低企業(yè)在多重規(guī)范體系下的合規(guī)不確定性,穩(wěn)定技術(shù)創(chuàng)新的制度預(yù)期;另一方面,通過激活《個(gè)人信息保護(hù)法》既有的權(quán)利保護(hù)與風(fēng)險(xiǎn)控制機(jī)制,在不降低保護(hù)水平的前提下實(shí)現(xiàn)對(duì)人工智能應(yīng)用的動(dòng)態(tài)治理。若能夠在既有法律體系基礎(chǔ)上實(shí)現(xiàn)規(guī)則協(xié)同與制度整合,形成清晰穩(wěn)定的法律預(yù)期,不僅可為產(chǎn)業(yè)發(fā)展提供有力的制度支撐,而且有助于在國(guó)際治理中形成具有辨識(shí)度的制度路徑,產(chǎn)生國(guó)際政策影響力。相較于單純依賴新增立法,更為關(guān)鍵的挑戰(zhàn)是在現(xiàn)有法律體系內(nèi)部理順邏輯,將已形成的原則、工具與機(jī)制轉(zhuǎn)化為可操作的治理能力。這既是避免制度重復(fù)建設(shè)的必要路徑,又是推動(dòng)人工智能治理從規(guī)則擴(kuò)張走向體系成熟的關(guān)鍵一步。
打通制度接口,推動(dòng)基礎(chǔ)法律與專項(xiàng)規(guī)則形成治理合力
《個(gè)人信息保護(hù)法》所確立的一系列原則與制度工具,在人工智能治理中仍然具有不可替代的適用價(jià)值,但尚未得到充分激活。當(dāng)前的關(guān)鍵路徑,是在既有法律框架內(nèi)推動(dòng)規(guī)則整合,明確制度接口,使基礎(chǔ)法律與專項(xiàng)規(guī)則形成合力。
在具體制度層面打通人工智能專項(xiàng)規(guī)則與《個(gè)人信息保護(hù)法》的制度接口。人工智能內(nèi)容標(biāo)識(shí)義務(wù)如何與《個(gè)人信息保護(hù)法》中的透明度原則形成對(duì)應(yīng)關(guān)系?算法備案制度如何與問責(zé)機(jī)制相銜接?安全評(píng)估等橫向義務(wù)如何在不同規(guī)則體系中實(shí)現(xiàn)統(tǒng)一適用?規(guī)則與規(guī)則之間并非簡(jiǎn)單疊加關(guān)系,部分人工智能專項(xiàng)規(guī)則中所確立的義務(wù),本身已經(jīng)具有明顯的可遷移性。例如,內(nèi)容標(biāo)識(shí)、風(fēng)險(xiǎn)評(píng)估及責(zé)任追溯等機(jī)制,往往不局限于單一技術(shù)場(chǎng)景,而是可以作為應(yīng)用范圍更廣的人工智能治理工具,加以提煉和延展。在既有規(guī)則基礎(chǔ)上進(jìn)行沉淀和總結(jié),有望逐步形成具有統(tǒng)一邏輯的人工智能治理規(guī)則體系。
明確制度接口,打通基礎(chǔ)法律與人工智能專項(xiàng)規(guī)則之間的適用關(guān)系。針對(duì)《個(gè)人信息保護(hù)法》與人工智能專項(xiàng)規(guī)則之間接口不清的問題,可以通過司法解釋、判例及執(zhí)法案例,明確相關(guān)制度在人工智能場(chǎng)景中的適用方式。例如,可圍繞信息透明、風(fēng)險(xiǎn)評(píng)估、可問責(zé)等制度工具,明確其在模型訓(xùn)練、算法推薦和內(nèi)容生成等場(chǎng)景中的具體適用路徑。同時(shí),推動(dòng)形成一批具有示范意義的執(zhí)法與司法案例,將原則性規(guī)則轉(zhuǎn)化為可操作的合規(guī)標(biāo)準(zhǔn),為不同主體提供法律確定性。
在人工智能專項(xiàng)規(guī)則發(fā)展到一定程度后,整合優(yōu)化已有規(guī)范,系統(tǒng)梳理算法備案、安全評(píng)估、內(nèi)容標(biāo)識(shí)等制度,明確其適用邊界,避免在不同規(guī)則體系中重復(fù)設(shè)置義務(wù)。以《個(gè)人信息保護(hù)法》確立的原則體系為底線,將分散在不同專項(xiàng)規(guī)則中的一般性義務(wù)進(jìn)行提煉與整合,形成統(tǒng)一融貫的規(guī)則框架,減少冗余、提升規(guī)則協(xié)同度。
總結(jié)既有實(shí)踐經(jīng)驗(yàn),可從兩方面應(yīng)對(duì)規(guī)則體系碎片化難題。一方面,通過標(biāo)準(zhǔn)制定、行業(yè)規(guī)范及合規(guī)工具建設(shè),自下而上從操作層面促進(jìn)規(guī)則統(tǒng)一適用;另一方面,在條件成熟時(shí),通過對(duì)《個(gè)人信息保護(hù)法》的修繕或配套實(shí)施細(xì)則的制定,為人工智能治理提供更明確的制度授權(quán),從而實(shí)現(xiàn)有效銜接。
(來源:人民論壇網(wǎng))
