吳太軒,廣西大學(xué)法學(xué)院教授;
鄧朝輝,西南政法大學(xué)經(jīng)濟(jì)法學(xué)院
以該論文為基礎(chǔ)的同名文章詳見《電子知識(shí)產(chǎn)權(quán)》2025年第8期
摘要:生成式人工智能基于內(nèi)容生成行為的侵權(quán)較之?dāng)?shù)人侵權(quán)、物件侵權(quán)、自己責(zé)任和替代責(zé)任的侵權(quán)等傳統(tǒng)侵權(quán)行為,具有單獨(dú)性、直接性、深度自主性和純技術(shù)性,進(jìn)而誘發(fā)諸多侵權(quán)歸責(zé)歧見。從理論基礎(chǔ)和實(shí)踐效益之二維出發(fā),分別對(duì)一般過錯(cuò)、無過錯(cuò)和過錯(cuò)推定在生成式人工智能侵權(quán)歸責(zé)場(chǎng)景中的適用加以檢視,發(fā)現(xiàn)一般過錯(cuò)和無過錯(cuò)責(zé)任皆難完全滿足現(xiàn)實(shí)的利益衡平要求,可能造成兩造舉證義務(wù)分配失衡、抑制產(chǎn)業(yè)發(fā)展積極性、消弭企業(yè)技術(shù)進(jìn)步自覺性等遺害,而過錯(cuò)推定則有望產(chǎn)生內(nèi)外兩重適用優(yōu)勢(shì)。是故,建議以“過錯(cuò)推定”為基點(diǎn),將生成式人工智能服務(wù)提供者確定為責(zé)任主體,并進(jìn)一步將之界分為開發(fā)者、運(yùn)營(yíng)者,要求二者各自就其過錯(cuò)承擔(dān)獨(dú)立舉證責(zé)任;同時(shí),為服務(wù)提供者推翻推定過錯(cuò)提供舉證方案。如此,方可在規(guī)制生成式人工智能侵權(quán)行為時(shí),既保障受害人得到有效救濟(jì),又不至于遏制新興產(chǎn)業(yè)與高新技術(shù)發(fā)展。
關(guān)鍵詞:生成式人工智能;侵權(quán)責(zé)任;過錯(cuò)推定;責(zé)任主體;舉證方式
一、問題的提出
自1956年達(dá)特茅斯會(huì)議提出人工智能概念以來,人工智能不斷勃發(fā)自身強(qiáng)大的生命力和社會(huì)影響力。經(jīng)過60余年沉淀演進(jìn),OpenAI旗下ChatGPT橫空出世及后續(xù)的更新迭代,掀起新一輪AI熱潮。然而喧囂之下,生成式人工智能不可忽視的風(fēng)險(xiǎn)也在不斷增加。2023年4月,ChatGPT回答用戶問題時(shí)將澳洲某市長(zhǎng)錯(cuò)誤描述為曾被指控參與賄賂犯罪并因此入獄的官員,受害人經(jīng)公眾告知后為維護(hù)個(gè)人名譽(yù),要求OpenAI即刻修復(fù),否則將提起誹謗訴訟;無獨(dú)有偶,同年6月美國(guó)主持人Mark Walters狀告OpenAI,因ChatGPT捏造并向某研究實(shí)際法庭案件的記者提供了原告曾挪用公款的不實(shí)信息。
由此,人工智能自主生成信息內(nèi)容(Artificial Intelligence Generated Content, AIGC)侵害他人合法權(quán)益時(shí),該如何對(duì)此種侵權(quán)行為進(jìn)行法律歸責(zé)成為時(shí)代之問。本文擬從生成式人工智能的侵權(quán)行為特性和歸責(zé)爭(zhēng)議出發(fā),對(duì)一般過錯(cuò)責(zé)任、無過錯(cuò)責(zé)任和過錯(cuò)推定責(zé)任的適用分別進(jìn)行理論和實(shí)踐的雙重檢視,并最終以過錯(cuò)推定為基點(diǎn),對(duì)生成式人工智能侵權(quán)歸責(zé)的時(shí)代之問作出回應(yīng)。
二、生成式人工智能的侵權(quán)行為特性與歸責(zé)爭(zhēng)議
行為與權(quán)益是侵權(quán)法的核心概念,行為邏輯影響歸責(zé)邏輯。使受有損害的權(quán)益與造成損害發(fā)生或擴(kuò)大的行為結(jié)合,并將該損害轉(zhuǎn)嫁給相關(guān)責(zé)任人承擔(dān),是歸責(zé)程序運(yùn)行之要義。但以ChatGPT為代表的生成式人工智能的侵權(quán)行為,日益表征出異于傳統(tǒng)侵權(quán)行為的獨(dú)有屬性,且這種異常介入因素也使歸責(zé)問題產(chǎn)生諸多歧見。因此,有必要梳理當(dāng)下生成式人工智能的侵權(quán)行為特性以及由此產(chǎn)生的諸種歸責(zé)爭(zhēng)議。
(一)生成式人工智能的侵權(quán)行為特性
生成式人工智能是具有文本、圖像、音頻、視頻、虛擬場(chǎng)景等信息內(nèi)容生成能力的計(jì)算機(jī)模型,如ChatGPT便是在海量文本數(shù)據(jù)上預(yù)訓(xùn)練(Pre-Trained),并于人機(jī)對(duì)話(Chat)中處理并生成(Generative)自然語言的大語言模型。作為受“無中生有、有中生有”之涌現(xiàn)效應(yīng)影響的復(fù)雜系統(tǒng),生成式人工智能能夠創(chuàng)造并發(fā)布超脫于舊有訓(xùn)練數(shù)據(jù)的全新信息,但也可能基于“幻覺”產(chǎn)生有害他人合法權(quán)益的錯(cuò)誤信息,進(jìn)而使人工智能的內(nèi)容生成行為沾染侵權(quán)色彩。
由于侵權(quán)行為本身的概念界定也非易事,從其內(nèi)涵,既有精要者謂之“因加害行為造成他人損害而由加害人承擔(dān)責(zé)任的行為”,亦有詳盡者以“由于過錯(cuò)”“違反義務(wù)”等內(nèi)容進(jìn)行延展續(xù)釋;觀之外延,又存在立足侵害客體、歸責(zé)原則等不同標(biāo)準(zhǔn)的諸種見解。較系統(tǒng)的則將其分為:一般侵權(quán)與特殊侵權(quán)、單獨(dú)侵權(quán)與數(shù)人侵權(quán)、人類致?lián)p與物件致?lián)p的侵權(quán)、自己責(zé)任與替代責(zé)任的侵權(quán)。是故,為于侵權(quán)法意義上對(duì)生成式人工智能的行為特性進(jìn)行準(zhǔn)確歸納,須在明確其行為內(nèi)在特性之基礎(chǔ)上,進(jìn)一步將其與傳統(tǒng)侵權(quán)行為比較。由于一般與特殊侵權(quán)內(nèi)有分歧,故主要選取單獨(dú)與數(shù)人侵權(quán)、人類致?lián)p與物件致?lián)p的侵權(quán)、自己責(zé)任與替代責(zé)任的侵權(quán)作為比較對(duì)象,分述如下:
第一,較之?dāng)?shù)人侵權(quán),生成式人工智能侵權(quán)行為具有單獨(dú)性、直接性。人工智能生成內(nèi)容就屬性而言是網(wǎng)絡(luò)信息,沾染侵權(quán)色彩則可歸為侵權(quán)信息。不可否認(rèn),人工智能具有類似搜索引擎的信息檢索功能,若向用戶提供的信息僅是從已有互聯(lián)網(wǎng)信息中檢索獲得,且未作實(shí)質(zhì)改變,則在信息理論視角下僅為傳播者,而非發(fā)布者。但生成式人工智能完全有能力擺脫服務(wù)提供者的外部幫助,單獨(dú)完成侵權(quán)信息的創(chuàng)造性編撰,并同時(shí)向用戶直接發(fā)布該侵權(quán)信息,從而“切斷將人工智能生成解釋為人類操縱人工智能生成的可能”。在“Mark Walters v. OpenAI案”中,ChatGPT便在與其用戶Fred Riehl的人機(jī)對(duì)話中徑直表明,Mark Walters作為第二修正案基金會(huì)(SAF)的財(cái)務(wù)主管和首席財(cái)務(wù)官,曾因私自挪用組織資金用于個(gè)人開支并篡改財(cái)務(wù)記錄和銀行對(duì)賬單,同時(shí)未能向領(lǐng)導(dǎo)層及時(shí)準(zhǔn)確提供財(cái)務(wù)報(bào)告而受到該機(jī)構(gòu)創(chuàng)始人Alan Gottlieb的投訴。但上述內(nèi)容無論是身份抑或行為方面的信息均不符合事實(shí)情況。后續(xù)Fred Riehl繼續(xù)追問時(shí),ChatGPT甚至獨(dú)立捏造并提供了完全虛假的投訴文本。這一完全由ChatGPT單獨(dú)實(shí)施的誹謗行為,使本案原告暴露在公眾不良評(píng)價(jià)下,損害了原告聲譽(yù)。反觀數(shù)人侵權(quán),共同加害和共同危險(xiǎn)強(qiáng)調(diào)多方侵權(quán)行為主體的存在,教唆幫助則偏重間接促進(jìn)他人實(shí)施侵權(quán)行為。因此,生成式人工智能有能力單獨(dú)且直接實(shí)施侵權(quán)行為,其侵權(quán)行為具有單獨(dú)性、直接性,有別于數(shù)人侵權(quán)。
第二,較之物件侵權(quán),生成式人工智能侵權(quán)行為具有深度自主性。參考?xì)W洲議會(huì)《機(jī)器人民事法律規(guī)則(Civil Law Rules on Robotic)》責(zé)任部分第AA條,人工智能若能擺脫外在人力介入和干預(yù)而獨(dú)立決策并達(dá)成決策目標(biāo),則具備自主性。一方面,生成式人工智能無需服務(wù)提供者的外部介入和干預(yù)便可實(shí)施內(nèi)容生成行為。同時(shí),基于內(nèi)容自主生成的能力,其已在事實(shí)層面獲得社會(huì)對(duì)其主體身份的認(rèn)可,如人工智能生產(chǎn)內(nèi)容(AIGC)業(yè)已成為與專業(yè)生產(chǎn)內(nèi)容(Professional Generated Content,PGC)和用戶生產(chǎn)內(nèi)容(User Generated Content,UGC)齊肩的第三種互聯(lián)網(wǎng)內(nèi)容生產(chǎn)模式。另一方面,生成式人工智能自主生成內(nèi)容的行為逐漸脫離外在人力的可控制范疇。由于智能“涌現(xiàn)”,生成式人工智能行為開始呈現(xiàn)不可理解、不可預(yù)測(cè)和不可控制的趨勢(shì)。因此,生成式人工智能不僅能夠自主實(shí)施侵權(quán)行為,而且其自主性程度將隨著技術(shù)的發(fā)展而不斷得到深入拓展與加強(qiáng)。反觀物件致?lián)p的侵權(quán)行為,如普通的產(chǎn)品缺陷致?lián)p、林木折斷致?lián)p、堆放物倒塌致?lián)p等,主體均為普通物件,并無自主活動(dòng)可能。存有疑問的是飼養(yǎng)動(dòng)物致?lián)p的侵權(quán)行為。雖然動(dòng)物與林木等無智商物相比,具有一定自主活動(dòng)能力,但從行為概念來看,動(dòng)物舉動(dòng)均為自然反映而非有意識(shí)的自主活動(dòng),因此動(dòng)物不是事實(shí)主體已成共識(shí)。特別較之生成式人工智能,動(dòng)物顯然缺乏足夠的行為理性與邏輯判斷能力,無法獲得被社會(huì)整體認(rèn)可的事實(shí)主體身份。因此,生成式人工智能的侵權(quán)行為具有深度自主性,有別于物件致?lián)p的侵權(quán)行為。
第三,較之自己責(zé)任與替代責(zé)任的侵權(quán),生成式人工智能侵權(quán)行為具有純技術(shù)性。由于生成式人工智能的侵權(quán)行為具備相當(dāng)顯著且日漸增強(qiáng)的深度自主性,因此學(xué)界對(duì)人工智能的法律地位認(rèn)知和資格判斷受到極大影響,諸多學(xué)者呼吁應(yīng)賦予其法律人格和獨(dú)立責(zé)任。但當(dāng)前并不適宜作此判斷,因?yàn)樯墒饺斯ぶ悄芮謾?quán)行為“不可理解、不可預(yù)測(cè)和不可控制”是值得商榷的:其一,服務(wù)提供者有能力刪除或禁用涉嫌侵權(quán)的內(nèi)容,如OpenAI用戶協(xié)議第9條(d)提及:“如果您認(rèn)為您的知識(shí)產(chǎn)權(quán)受到侵犯,請(qǐng)發(fā)送通知至以下地址或填寫相應(yīng)表格,我們可能會(huì)刪除或禁用涉嫌侵權(quán)的內(nèi)容,并可能終止重復(fù)侵權(quán)者的帳戶。”其二,服務(wù)提供者有能力實(shí)施行之有效的導(dǎo)向性控制,如通過人工內(nèi)容標(biāo)注等行為來引導(dǎo)生成式人工智能避免生成并發(fā)布涉嫌種族歧視、法西斯主義等有害公共利益的內(nèi)容,或依托對(duì)齊微調(diào)(Alignment Tuning)使生成式人工智能行為符合人類價(jià)值觀與道德偏好,減少違法和不良信息的生成,實(shí)際此類信息在人機(jī)對(duì)話中也確實(shí)難覓蹤跡。其三,人工智能自主程度受制于人類設(shè)計(jì),即其自主程度與其被設(shè)計(jì)成的可與環(huán)境進(jìn)行交互的復(fù)雜程度成正比。因此,生成式人工智能的內(nèi)容生成行為仍然無法完全脫離人類的干預(yù)和控制,其在形式意義上實(shí)施的獨(dú)立自主行為本質(zhì)上依舊遵循著人類預(yù)先設(shè)計(jì)的技術(shù)邏輯,這使得所謂的深度自主性客觀來講也附有技術(shù)色彩,而基于該種非自然、純技術(shù)性的自主,生成式人工智能將無法被賦予法律意義上的主體資格和獨(dú)立責(zé)任。經(jīng)過比較分析,可得如下結(jié)論:
其一,生成式人工智能侵權(quán)行為有別于自己責(zé)任的侵權(quán)行為。自己責(zé)任又稱直接責(zé)任,如常見的侵犯他人人身或財(cái)產(chǎn)權(quán)益、違反保護(hù)性法律規(guī)范等,行為主體應(yīng)當(dāng)自負(fù)其責(zé)。但侵權(quán)法中,責(zé)任主體與為責(zé)任提供法律評(píng)價(jià)對(duì)象的行為主體并非始終具有同一性,“不法行為責(zé)任不僅可歸于行為人,也可歸于依法律規(guī)定或社會(huì)觀念而應(yīng)承擔(dān)責(zé)任的人”。生成式人工智能的侵權(quán)行為雖由其獨(dú)立、自主、直接實(shí)施,但因其未被賦予法律上的獨(dú)立責(zé)任,所以將發(fā)生行為主體與責(zé)任主體的分離。
其二,生成式人工智能侵權(quán)行為有別于替代責(zé)任的侵權(quán)行為。生成式人工智能侵權(quán)場(chǎng)景中雖發(fā)生行為主體與責(zé)任主體的分離,相關(guān)責(zé)任由他人代而承擔(dān),但傳統(tǒng)視域下替代責(zé)任主體與侵權(quán)行為主體間普遍存在監(jiān)護(hù)、雇傭、代理等特定關(guān)系,被監(jiān)護(hù)人員、執(zhí)行職務(wù)的雇員等行為主體均具有法律意義上的獨(dú)立人格。法律主體作為人格人,其不僅具有意志,而且始終為目的性存在。反之,生成式人工智能雖被賦予技術(shù)層面的感知與決策能力,但始終是人類智能的工具性延伸,不同于人類的情緒感知與行為決策能力,無法改變其“物件”本性,因此不是法律主體,其侵權(quán)行為有別于替代責(zé)任的侵權(quán)行為。
縱論及此,可知生成式人工智能是行為主體和事實(shí)主體,卻非責(zé)任主體與法律主體。“似人而非人,非人而似人”的主體特點(diǎn)使其具有單獨(dú)性、直接性、深度自主性和純技術(shù)性的侵權(quán)行為無法與任何一種傳統(tǒng)的侵權(quán)行為相類同。
(二)生成式人工智能的侵權(quán)歸責(zé)爭(zhēng)議
生成式人工智能的侵權(quán)行為呈現(xiàn)特殊屬性,進(jìn)而導(dǎo)致與之對(duì)接的侵權(quán)歸責(zé)程序陷入運(yùn)轉(zhuǎn)困窘。前文曾述及,學(xué)理界曾圍繞人工智能主體性認(rèn)定問題衍生兩派差異觀點(diǎn),并由此對(duì)人工智能可否作為獨(dú)立的法律主體承擔(dān)侵權(quán)責(zé)任存有分歧。而鑒于我國(guó)當(dāng)前并未認(rèn)可人工智能的法律主體身份且實(shí)無認(rèn)可之現(xiàn)實(shí)需求,因此僅就非主體前提下的生成式人工智能侵權(quán)歸責(zé)路徑展開梳理。總體而言包括兩大類別:
第一類,一元?dú)w責(zé)路徑。其中又可分為:(1)以高度風(fēng)險(xiǎn)、產(chǎn)品缺陷或責(zé)歸于上為基點(diǎn)提出的無過錯(cuò)責(zé)任。如高度風(fēng)險(xiǎn)說認(rèn)為,人工智能內(nèi)容生成行為涉嫌侵犯多種人格權(quán)益、內(nèi)容生產(chǎn)結(jié)果無法有效預(yù)測(cè)、存在誘發(fā)大范圍系統(tǒng)性不利后果的風(fēng)險(xiǎn),具有極大潛在危害,因而適用無過錯(cuò)責(zé)任;產(chǎn)品缺陷說繼續(xù)堅(jiān)持沿用產(chǎn)品概念涵攝人工智能,強(qiáng)調(diào)產(chǎn)品技術(shù)問題造成的損害理應(yīng)使用無過錯(cuò)的產(chǎn)品責(zé)任;還有學(xué)者從現(xiàn)實(shí)合理性出發(fā),將利于降低相關(guān)侵權(quán)風(fēng)險(xiǎn)、減少制度不確定性成本、提供可預(yù)期法治經(jīng)營(yíng)環(huán)境等作為適用無過錯(cuò)責(zé)任的依據(jù)。(2)為糾偏原被告舉證失衡格局、動(dòng)態(tài)調(diào)整被告責(zé)任負(fù)擔(dān)而適用的過錯(cuò)推定責(zé)任。如我國(guó)《人工智能示范法1.0(專家建議稿)》第66條第1款規(guī)定,“研發(fā)、提供的人工智能侵害個(gè)人權(quán)益造成損害,研發(fā)者、提供者未履行本法規(guī)定的義務(wù),應(yīng)當(dāng)承擔(dān)損害賠償?shù)惹謾?quán)責(zé)任,但研發(fā)者和提供者能證明自己沒有過錯(cuò)的除外。”相關(guān)學(xué)者也多針對(duì)無過錯(cuò)責(zé)任提出批駁,主張應(yīng)利用過錯(cuò)推定實(shí)現(xiàn)舉證責(zé)任倒置,紓解原告訴訟壓力。(3)以現(xiàn)有技術(shù)水平、合理人工智能作為過錯(cuò)認(rèn)定標(biāo)準(zhǔn)的一般過錯(cuò)責(zé)任。參照既往有關(guān)智能算法侵權(quán)的判例可知,司法機(jī)關(guān)較多依法優(yōu)先適用一般過錯(cuò)進(jìn)行歸責(zé),如“劉權(quán)訴北京三快科技案”中,原告因智能算法殺熟起訴被告侵犯其知情權(quán)等人格權(quán)益,法院因原告無法證明被告過錯(cuò)而予以駁回,并強(qiáng)調(diào)“除法律另有規(guī)定外,行為人因過錯(cuò)侵害他人民事權(quán)益,才應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。”轉(zhuǎn)見生成式人工智能侵權(quán)領(lǐng)域,部分學(xué)者順應(yīng)歷史邏輯繼續(xù)堅(jiān)持一般過錯(cuò)并提出多種過錯(cuò)認(rèn)定新標(biāo)準(zhǔn),如“在現(xiàn)有技術(shù)條件下是否盡到了采取必要措施的義務(wù),是否盡到了預(yù)防和防范的義務(wù),從而認(rèn)定其是否具有過錯(cuò)”,或通過建構(gòu)“合理人工智能”作為預(yù)期對(duì)象并同涉案人工智能行為加以比較得出過錯(cuò)判斷。
第二類,多元?dú)w責(zé)路徑。其中包括但不限于:(1)基于侵權(quán)風(fēng)險(xiǎn)差異,針對(duì)禁用型人工智能侵權(quán)要求服務(wù)提供者承擔(dān)無過錯(cuò)責(zé)任、對(duì)高風(fēng)險(xiǎn)型采用過錯(cuò)推定責(zé)任、對(duì)低風(fēng)險(xiǎn)型僅依一般過錯(cuò)加以歸責(zé);(2)基于信息錯(cuò)誤誘因差異,過錯(cuò)推定被廣泛嵌入生成式人工智能因存儲(chǔ)數(shù)據(jù)本身虛假而生成錯(cuò)誤信息、使用者提示虛假信息而生成錯(cuò)誤信息和提供者故意摻入虛假信息而生成錯(cuò)誤信息三類情形,無過錯(cuò)的產(chǎn)品責(zé)任則單獨(dú)應(yīng)用于通過真實(shí)數(shù)據(jù)生成錯(cuò)誤信息的場(chǎng)景;(3)基于可解釋性差異,人工智能被劃歸為完全可解釋的“白箱AI”、一定程度可解釋的“灰箱AI”和完全不可解釋的“黑箱AI”,并順次適用一般過錯(cuò)、過錯(cuò)推定和無過錯(cuò)責(zé)任;(4)基于標(biāo)準(zhǔn)化程度差異,對(duì)少量可實(shí)現(xiàn)標(biāo)準(zhǔn)化生產(chǎn)與經(jīng)營(yíng)的生成式人工智能適用無過錯(cuò)的產(chǎn)品責(zé)任,而對(duì)大部分無法完成標(biāo)準(zhǔn)化改造的繼續(xù)適用一般過錯(cuò)責(zé)任;等等。
雖然生成式人工智能有其特殊的侵權(quán)行為邏輯,甚至可能因應(yīng)現(xiàn)實(shí)場(chǎng)景變化而衍生多種事實(shí)差異,但依據(jù)奧卡姆剃刀“如無必要,勿增實(shí)體”之理念,若能夠遵循既有體系為其選配適宜歸責(zé)原則,那么實(shí)無必要額外創(chuàng)設(shè)過于繁雜的責(zé)任認(rèn)定和分配規(guī)范。立足《中華人民共和國(guó)民法典》侵權(quán)責(zé)任編,或可以“過錯(cuò)”為節(jié)點(diǎn),對(duì)一般過錯(cuò)、無過錯(cuò)和過錯(cuò)推定責(zé)任在生成式人工智能侵權(quán)場(chǎng)景中的適用,分別進(jìn)行理論基礎(chǔ)與實(shí)踐效益的雙重檢視。
三、一般過錯(cuò)責(zé)任在生成式人工智能侵權(quán)中的適用證否(一)一般過錯(cuò)責(zé)任的理論基礎(chǔ)
古早成文法采結(jié)果責(zé)任,即不論過錯(cuò)與否,行為人只要造成他人損害便負(fù)有侵權(quán)責(zé)任。問題在于,結(jié)果責(zé)任的適用與現(xiàn)實(shí)生活實(shí)際存有巨大矛盾,因?yàn)榧幢銈€(gè)人正當(dāng)追求自身權(quán)利或利益的實(shí)現(xiàn),“仍可能在客觀層面以另一方權(quán)利的排除或減損為代價(jià)。”為解決該問題,以主觀過錯(cuò)為正義基礎(chǔ)的一般過錯(cuò)責(zé)任(Fault Liability)便獲得自然發(fā)展。
一般過錯(cuò)責(zé)任中“過錯(cuò)”要素的判定,實(shí)以怠于履行善良管理人的注意義務(wù)為標(biāo)準(zhǔn),即應(yīng)注意能注意而不注意。此間既包括積極追求的故意不注意,也指向疏忽大意或過于自信的過失不注意。分歧源于注意義務(wù)之前提條件,即:損害的發(fā)生可以被合理預(yù)見與避免。諸多學(xué)者主張生成式人工智能侵權(quán)僅可適用無過錯(cuò)責(zé)任,便是因生成式人工智能侵權(quán)行為本身在一定程度上具有不可預(yù)測(cè)性和控制性,進(jìn)而使善良管理人的注意義務(wù)缺失生發(fā)前提,其引發(fā)的損害與其說是遭自“不法”行為,毋寧言為“不幸”后果,使侵權(quán)歸責(zé)中的“過錯(cuò)”要素發(fā)生不適用。當(dāng)然,前文曾述及所謂生成式人工智能侵權(quán)行為完全不可理解、預(yù)測(cè)和控制的結(jié)論過于絕對(duì),無論是開發(fā)者的刪除禁用承諾,還是導(dǎo)向性控制、對(duì)齊微調(diào)等都予以了充分佐證。關(guān)鍵在于,判定“過錯(cuò)”所需的注意義務(wù)在性質(zhì)上屬于作為義務(wù),而形式義務(wù)學(xué)說始終強(qiáng)調(diào)作為義務(wù)不僅可以通過給定情形的“致害事實(shí)”推定(如先行行為、職務(wù)或業(yè)務(wù)要求、對(duì)危險(xiǎn)源的監(jiān)管要求等),更可源自法律條文的直接賦予。結(jié)合《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》與《生成式人工智能服務(wù)管理暫行辦法》可知,事實(shí)上我國(guó)目前已經(jīng)在安全評(píng)估、算法備案、內(nèi)容標(biāo)注等方面為生成式人工智能服務(wù)提供者依法設(shè)立了相當(dāng)明確的善良管理人注意義務(wù)。
由此,前述以不可理解、預(yù)測(cè)和控制為邏輯起點(diǎn),試圖驗(yàn)證注意義務(wù)缺失并主張排除適用過錯(cuò)責(zé)任的觀點(diǎn)便不再具有當(dāng)然合理性,一般過錯(cuò)責(zé)任至少在理論層面不會(huì)存在適用阻滯。
(二)一般過錯(cuò)責(zé)任的實(shí)效弊端
雖然一般過錯(cuò)責(zé)任自誕生后逐漸占據(jù)侵權(quán)歸責(zé)體系的中心地位,并在一定程度上矯正了此前由結(jié)果責(zé)任引發(fā)的非正義現(xiàn)象,但自十九世紀(jì)工業(yè)革命爆發(fā),一般過錯(cuò)責(zé)任本身也開始暴露出內(nèi)部缺陷,其中最為顯著的便是工業(yè)化大生產(chǎn)背景下因忽視經(jīng)營(yíng)者、消費(fèi)者之實(shí)質(zhì)不平等地位而形成的對(duì)兩造舉證義務(wù)分配的不公平、不正義問題。人工智能時(shí)代,歐盟《人工智能責(zé)任指令》施行目的之一同樣是在減輕人工智能相關(guān)索賠中作為消費(fèi)者的原告承擔(dān)的過重舉證責(zé)任(Easing the Burden of Proof for AI-Related Claims)。從其問題成因,具體有二:
第一,受害方所負(fù)舉證責(zé)任遠(yuǎn)超于其能力范圍。受害人受客觀限制,往往難以對(duì)具有較高技術(shù)水平的商品或服務(wù)形成充分且合理的認(rèn)知,要求其承擔(dān)遠(yuǎn)超自身能力范圍的舉證責(zé)任不具有正當(dāng)性。現(xiàn)代侵權(quán)法始終強(qiáng)調(diào)“過錯(cuò)”是經(jīng)法律評(píng)價(jià)的事實(shí),對(duì)應(yīng)于社會(huì)成員對(duì)相關(guān)主體通常能采取的損害規(guī)避措施的合理期待。換言之,過錯(cuò)責(zé)任的承擔(dān)并非建立在道德缺點(diǎn)上,而是看相關(guān)主體是否達(dá)到符合社會(huì)公共利益的理想行為標(biāo)準(zhǔn)。該種標(biāo)準(zhǔn)在生成式人工智能場(chǎng)景則集中表現(xiàn)為服務(wù)提供者應(yīng)當(dāng)履行的善良管理人注意義務(wù),生成式人工智能侵權(quán)行為過錯(cuò)要素的證明將與該注意義務(wù)的履行情況相對(duì)應(yīng)。但生成式人工智能屬于典型的科技水平較高、專業(yè)性極強(qiáng)的高新技術(shù),無論是其內(nèi)容生成的行為過程,還是服務(wù)提供者進(jìn)行安全評(píng)估、內(nèi)容標(biāo)注等注意義務(wù)的義務(wù)履行過程,均超出作為一般人的消費(fèi)者的正常認(rèn)知限度。因此,要求受害人從局外角度出發(fā),追根溯源以舉證侵權(quán)方過錯(cuò)的存在,不免有強(qiáng)人所難之嫌。
第二,侵權(quán)方所負(fù)舉證責(zé)任遠(yuǎn)低于其能力范圍。農(nóng)業(yè)社會(huì)、工業(yè)社會(huì)與信息社會(huì)的漸次發(fā)展,使市場(chǎng)主體間的力量對(duì)比關(guān)系發(fā)生嚴(yán)重失衡。產(chǎn)品或服務(wù)的生產(chǎn)者和銷售者在經(jīng)營(yíng)中占有更多資金、技術(shù)、人才等資源,形成較之消費(fèi)者的強(qiáng)勢(shì)地位。這種強(qiáng)勢(shì)不僅體現(xiàn)在前者具有更雄厚的經(jīng)濟(jì)實(shí)力和風(fēng)險(xiǎn)承擔(dān)能力,還突出表現(xiàn)為更強(qiáng)的舉證能力和訴訟能力。如果僵化適用一般過錯(cuò)責(zé)任,將“在維護(hù)形式正義的同時(shí)也維護(hù)著實(shí)質(zhì)的非正義”。生成式人工智能侵權(quán)方較之受害方,更了解人工智能內(nèi)容生成的行為機(jī)理與自身注意義務(wù)的履行情況,舉證成本更低、證明效果更強(qiáng)。若堅(jiān)持法律形式主義,繼續(xù)維持業(yè)已失衡的舉證義務(wù)分配結(jié)構(gòu),將使得一般過錯(cuò)責(zé)任演變?yōu)楸Wo(hù)處于實(shí)質(zhì)優(yōu)勢(shì)地位的侵權(quán)方的工具。
事物合理與否的判斷并非始終固定不變,其不僅要在通常場(chǎng)景中表征合宜,更應(yīng)與特殊情形相兼容。經(jīng)濟(jì)生活的真實(shí)變化使歸責(zé)原則的選擇不得不重視當(dāng)事人之間不平等的社會(huì)現(xiàn)實(shí),此時(shí)在生成式人工智能侵權(quán)場(chǎng)景中摒棄一般過錯(cuò)責(zé)任更加合宜。
四、無過錯(cuò)責(zé)任在生成式人工智能侵權(quán)中的適用摒棄(一)無過錯(cuò)責(zé)任的理論基礎(chǔ)
無過錯(cuò)責(zé)任(No Fault Liability),意指損害產(chǎn)生后,只要加害行為與該損害后果存在因果關(guān)系,不問過錯(cuò)皆應(yīng)承擔(dān)侵權(quán)責(zé)任。如果說過錯(cuò)責(zé)任以制裁、教育加害人和預(yù)防加害行為再次發(fā)生為目的,那么無過錯(cuò)責(zé)任實(shí)際僅著眼損害的合理分配。因?yàn)榘殡S社會(huì)發(fā)展,人民享受發(fā)展福利時(shí)也面臨工業(yè)災(zāi)害、交通事故、環(huán)境污染等致害風(fēng)險(xiǎn),但無論是原子能與航空工業(yè)、交通運(yùn)輸事業(yè)還是生態(tài)環(huán)境開發(fā)利用,都是社會(huì)經(jīng)濟(jì)發(fā)展的必要活動(dòng),即便引起損害也實(shí)無不法性可言,更無必要予以禁止。當(dāng)然,倘若來自于現(xiàn)代文明發(fā)展負(fù)面影響的不幸后果全由受害人獨(dú)自承擔(dān),顯然有失公平正義,故無過錯(cuò)責(zé)任的唯一職能便是合理分配該不幸后果,由此體現(xiàn)高度現(xiàn)代化、社會(huì)化大生產(chǎn)條件下的公平正義觀。
在加害行為不法性不作為適用無過錯(cuò)責(zé)任的前提條件時(shí),無過錯(cuò)責(zé)任適用的理論依據(jù)有三:一為誰開啟風(fēng)險(xiǎn),誰承擔(dān)責(zé)任;二為誰從風(fēng)險(xiǎn)中獲益,誰承擔(dān)責(zé)任;三為誰能夠合理的控制或分散風(fēng)險(xiǎn),誰承擔(dān)責(zé)任。生成式人工智能侵權(quán)行為完全符合上述要求:其一,生成式人工智能侵權(quán)風(fēng)險(xiǎn)因開發(fā)、運(yùn)營(yíng)而產(chǎn)生;其二,生成式人工智能開發(fā)、運(yùn)營(yíng)作為經(jīng)營(yíng)性活動(dòng),服務(wù)提供者從中獲取實(shí)際收益;其三,生成式人工智能內(nèi)容生成行為并非完全不可預(yù)測(cè)和控制;其四,相關(guān)風(fēng)險(xiǎn)損害能夠經(jīng)由商品或服務(wù)的價(jià)格機(jī)制或保險(xiǎn)制度加以分散。因此,僅就理論基礎(chǔ)而言,無過錯(cuò)責(zé)任足以構(gòu)成生成式人工智能侵權(quán)歸責(zé)的潛在選擇。問題在于,無過錯(cuò)責(zé)任在生成式人工智能侵權(quán)場(chǎng)景中的實(shí)踐應(yīng)用,或難達(dá)致合理分配損害風(fēng)險(xiǎn)、充分救濟(jì)受害人等規(guī)范目的。
(二)無過錯(cuò)責(zé)任的實(shí)效弊端
將諸多適用無過錯(cuò)責(zé)任的個(gè)案進(jìn)行抽象概括,會(huì)發(fā)現(xiàn)已知的可歸責(zé)事由主要包括高度危險(xiǎn)、特定關(guān)系和優(yōu)勢(shì)地位。(1)基于高度危險(xiǎn)的無過錯(cuò)責(zé)任,如《民法典》第八章所列高度危險(xiǎn)作業(yè)致人損害、民用核事故致人損害等產(chǎn)生的責(zé)任均屬典型。關(guān)于高度危險(xiǎn)的判定,常要求同時(shí)符合風(fēng)險(xiǎn)廣泛性和損害高度嚴(yán)重性,且更多考慮后者。雖然生成式人工智能可能輸出虛假性、歧視性或侵犯他人版權(quán)的信息,但在損害嚴(yán)重程度方面根本無法與核事故、航空事故等相提并論。因此,基于高度危險(xiǎn)的無過錯(cuò)責(zé)任難以適用。(2)基于特定關(guān)系的無過錯(cuò)責(zé)任,如監(jiān)護(hù)人責(zé)任、雇主責(zé)任等。域內(nèi)外均有主張人工智能與其服務(wù)提供者間可類比雇傭或監(jiān)護(hù)關(guān)系,并由后者承擔(dān)替代責(zé)任。前文曾述及替代責(zé)任下常要求法律關(guān)系各方(特別是替代者和被替代者)均具備獨(dú)立的法律主體資格,若生成式人工智能侵權(quán)徑行適用替代責(zé)任,將在一定程度上打破固有的責(zé)任適用要求,因此雇主責(zé)任、監(jiān)護(hù)人責(zé)任等僅可作為參照進(jìn)行類比,但不宜施行“拿來主義”。(3)基于優(yōu)勢(shì)地位的無過錯(cuò)責(zé)任。此分類實(shí)際較為寬泛,但《民法典》第四章和《中華人民共和國(guó)產(chǎn)品質(zhì)量法》規(guī)定的產(chǎn)品責(zé)任或?yàn)檩^鮮明之示例。我國(guó)亦有學(xué)者主張就人工智能侵權(quán)歸責(zé)適用產(chǎn)品責(zé)任。
關(guān)鍵問題在于,產(chǎn)品責(zé)任能否契合ChatGPT此類生成式人工智能侵權(quán)的特殊情況,并產(chǎn)生無過錯(cuò)責(zé)任所應(yīng)具備的社會(huì)實(shí)效?本文主張為否。前人工智能時(shí)代,產(chǎn)品缺陷(特別是設(shè)計(jì)缺陷)判斷標(biāo)準(zhǔn)包括“危險(xiǎn)—效益標(biāo)準(zhǔn)”和“消費(fèi)者期待標(biāo)準(zhǔn)”。前者要求受害人證明現(xiàn)有設(shè)計(jì)所產(chǎn)生的危害風(fēng)險(xiǎn)大于收益可能,并應(yīng)提出具有可行性和更加安全的替代設(shè)計(jì);后者則指產(chǎn)品是否能滿足一般消費(fèi)者在合理使用時(shí)對(duì)產(chǎn)品的預(yù)期。隨著人工智能侵權(quán)問題出現(xiàn),諸多學(xué)者均意識(shí)到“危險(xiǎn)—效益標(biāo)準(zhǔn)”會(huì)致使受害人面臨極大的舉證困囿,因而轉(zhuǎn)向倡議舉證責(zé)任相對(duì)更輕的消費(fèi)者期待標(biāo)準(zhǔn)。但消費(fèi)者期待標(biāo)準(zhǔn)同樣有頗受詬病之弊端,即“模糊不清,更適于評(píng)判簡(jiǎn)單產(chǎn)品設(shè)計(jì),而無法適用于復(fù)雜產(chǎn)品設(shè)計(jì)”。延及生成式人工智能,暫不論其是否構(gòu)成產(chǎn)品,單就技術(shù)復(fù)雜性而言已遠(yuǎn)遠(yuǎn)超出消費(fèi)者正常認(rèn)知限度,難以要求消費(fèi)者對(duì)其形成相對(duì)合理的安全期待值。基于此,產(chǎn)品責(zé)任雖被歸為無過錯(cuò)責(zé)任,但并不意味著不存在“過錯(cuò)”,其僅是將客觀存在的產(chǎn)品缺陷視作“過錯(cuò)”。因此,產(chǎn)品責(zé)任在生成式人工智能場(chǎng)景下的責(zé)任認(rèn)定方法與一般過錯(cuò)并無本質(zhì)區(qū)別,不過是從證明“主觀過錯(cuò)”轉(zhuǎn)為證明“客觀缺陷”,仍然無法應(yīng)對(duì)當(dāng)事人舉證地位極端不平衡的現(xiàn)實(shí)矛盾,故基于優(yōu)勢(shì)地位的無過錯(cuò)責(zé)任(如產(chǎn)品責(zé)任),不具有可適用性。
隨之而來的問題是,若為生成式人工智能侵權(quán)設(shè)置獨(dú)立且純粹的無過錯(cuò)責(zé)任,是否能夠滿足社會(huì)實(shí)效層面的要求?本文依然秉持否定態(tài)度,理由如下:
第一,施加過重的額外負(fù)擔(dān)將抑制相關(guān)產(chǎn)業(yè)發(fā)展積極性。雖然在創(chuàng)設(shè)理念和適用范圍方面,無過錯(cuò)責(zé)任和結(jié)果責(zé)任存在顯著差異,但從形式上來說,二者均歸于純粹的客觀歸責(zé)體系,一般唯有加害方證明受害方存在故意才能免除自身責(zé)任。不可否認(rèn)無過錯(cuò)責(zé)任對(duì)保障弱勢(shì)受害人的合法權(quán)益極為有利,但若生成式人工智能服務(wù)提供者確無過錯(cuò),無過錯(cuò)責(zé)任相對(duì)偏頗的設(shè)定也會(huì)剝奪其自證清白的權(quán)利與機(jī)會(huì),進(jìn)而造成個(gè)案適用的有失公允。當(dāng)生成式人工智能服務(wù)提供者動(dòng)輒得咎,將使得服務(wù)成本攀升,進(jìn)而在一定程度上概括抑制產(chǎn)業(yè)發(fā)展的積極性,導(dǎo)致寒蟬效應(yīng)。
第二,價(jià)格與保險(xiǎn)機(jī)制介入將消弭企業(yè)技術(shù)進(jìn)步自覺性。以價(jià)格機(jī)制和保險(xiǎn)制度為基礎(chǔ)并實(shí)現(xiàn)損害分配社會(huì)化的無過錯(cuò)責(zé)任,將使生成式人工智能服務(wù)提供者不必再為其造成的損害自行賠付。根據(jù)利爾德·漢德公式,當(dāng)預(yù)防事故成本(B)大于預(yù)期事故成本(PL),責(zé)任主體作為理性的功利最大化者(Rational Maximizer)將不再采取預(yù)防措施。換言之,當(dāng)采取安全保障措施和提高技術(shù)安全性的費(fèi)用大于提價(jià)損失或保險(xiǎn)費(fèi)用支出,服務(wù)提供者必然放棄提高產(chǎn)品或服務(wù)安全性,也不會(huì)自覺秉持謹(jǐn)慎服務(wù)態(tài)度。如二十世紀(jì)平托車事件中,福特對(duì)召回并加裝安全裝置的費(fèi)用與車禍傷亡者的賠償費(fèi)用進(jìn)行計(jì)算,并最終做出不利于技術(shù)升級(jí)和保護(hù)消費(fèi)者安全的放棄召回決定。
第三,濫設(shè)無過錯(cuò)責(zé)任將貶損現(xiàn)代侵權(quán)責(zé)任的功能。無過錯(cuò)責(zé)任本身科以被告的負(fù)擔(dān)難謂絕對(duì)正義公平,因此必須通過法律明文規(guī)定的形式對(duì)其適用予以特定化。相較兼具制裁、教育、預(yù)防和賠償職能的過錯(cuò)責(zé)任,僅強(qiáng)調(diào)賠償救濟(jì)受害人而不發(fā)揮教育和預(yù)防功能的無過錯(cuò)責(zé)任已在實(shí)質(zhì)上淡化了侵權(quán)責(zé)任的本源含義,甚至難謂具有侵權(quán)責(zé)任屬性,故有學(xué)者直言“無過錯(cuò)責(zé)任在哪里發(fā)展,過錯(cuò)責(zé)任就在哪里消滅”。更重要的是,如果在生成式人工智能此類新興侵權(quán)場(chǎng)景中不加審慎考量地濫設(shè)無過錯(cuò)責(zé)任,可能便于加害方借由保險(xiǎn)制度、價(jià)格機(jī)制將侵權(quán)損害向大眾轉(zhuǎn)移,從而使得侵權(quán)責(zé)任規(guī)范無法發(fā)揮約束和指引公民行為的基本功能,貶損以過錯(cuò)為基礎(chǔ)的侵權(quán)責(zé)任體系的應(yīng)有價(jià)值。
有鑒于此,無過錯(cuò)責(zé)任在生成式人工智能侵權(quán)場(chǎng)景中不具有可適用性。
五、過錯(cuò)推定責(zé)任在生成式人工智能侵權(quán)中的適用證成(一)過錯(cuò)推定責(zé)任的理論基礎(chǔ)
過錯(cuò)推定是指若受害人能證明自身合法權(quán)益因被告加害行為而受有實(shí)際損害,則從損害事實(shí)本身出發(fā)推定加害人具有主觀過錯(cuò),如果被告未證明或不能證明自己沒有過錯(cuò),則需承擔(dān)侵權(quán)責(zé)任。《民法典》第1165條第1款和第2款為一般過錯(cuò)和過錯(cuò)推定侵權(quán)設(shè)立請(qǐng)求權(quán)基礎(chǔ)。其中,過錯(cuò)推定的根本目的是為受害人提供更充分的救濟(jì)受償機(jī)會(huì),這使其職能重心相較一般過錯(cuò),由制裁、教育、預(yù)防向賠償傾斜。殊值注意的是,過錯(cuò)推定責(zé)任的出現(xiàn)雖改變了過錯(cuò)責(zé)任體系的格局,但其本身未脫離過錯(cuò)責(zé)任體系,本質(zhì)依舊以“過錯(cuò)”為核心,所以“我國(guó)現(xiàn)行侵權(quán)法仍以一般過錯(cuò)為主線,過錯(cuò)推定為補(bǔ)充”。由此,過錯(cuò)推定責(zé)任在理論層面的適用條件同一般過錯(cuò)責(zé)任并無實(shí)質(zhì)差異,可以用于規(guī)制生成式人工智能侵權(quán)行為。
(二)過錯(cuò)推定責(zé)任的實(shí)效優(yōu)勢(shì)
關(guān)于生成式人工智能侵權(quán)行為的可預(yù)測(cè)和控制性,目前能得到的結(jié)論是基于不完全意義上的。當(dāng)然,也有少數(shù)學(xué)者曾提出反對(duì)意見,認(rèn)為人工智能的自主行為并非設(shè)計(jì)者可以控制,進(jìn)而強(qiáng)調(diào)侵權(quán)責(zé)任不應(yīng)由設(shè)計(jì)者承擔(dān)。但多數(shù)學(xué)者常作二分判斷,主張人工智能的自主行為大部分情況下均處于開發(fā)者控制范疇,但不排除產(chǎn)生異常狀態(tài)并擺脫人為控制的可能。由是觀之,似應(yīng)結(jié)合生成式人工智能侵權(quán)行為可否預(yù)測(cè)和控制并為其分別配置侵權(quán)責(zé)任,以滿足具體問題具體分析的需求。但關(guān)鍵問題是,過分細(xì)致入微的侵權(quán)責(zé)任二分法,實(shí)則會(huì)給司法實(shí)務(wù)帶來操作層面的極大不便。因此,為保障生成式人工智能侵權(quán)責(zé)任規(guī)范具備良好的可操作性,仍需適用統(tǒng)一的歸責(zé)原則。此外,適用過錯(cuò)推定責(zé)任還可能產(chǎn)生如下效益:
第一,過錯(cuò)推定責(zé)任的外在比較優(yōu)勢(shì)。(1)較之一般過錯(cuò)責(zé)任,更有利于實(shí)現(xiàn)舉證責(zé)任的合理分配。將生成式人工智能侵權(quán)致?lián)p的情形同《民法典》業(yè)已列明的無民事行為能力人在教育機(jī)構(gòu)遭受人身損害、動(dòng)物園飼養(yǎng)動(dòng)物致?lián)p和林木折斷致?lián)p等八種過錯(cuò)推定情形相結(jié)合,不難發(fā)現(xiàn)原告均客觀缺失有效的證明手段,難以完成舉證。同時(shí),生成式人工智能服務(wù)提供者、教育機(jī)構(gòu)等被告相對(duì)更容易接觸到可能構(gòu)成過錯(cuò)的事實(shí),此時(shí)通過推定將與過錯(cuò)相關(guān)的舉證責(zé)任倒置給履行證明義務(wù)更加便利的被告,有利于保障原告享有合理受償機(jī)會(huì),以實(shí)現(xiàn)原被告間舉證責(zé)任的合理分配。類似邏輯亦可見于《中華人民共和國(guó)民事訴訟法》第112條文書提出命令規(guī)則,比較法上英美的“事物自道其緣”(the Things Speaks for Itself)也存在相當(dāng)內(nèi)容。(2)較之無過錯(cuò)責(zé)任,更有利于激勵(lì)產(chǎn)業(yè)良性發(fā)展,更契合過錯(cuò)責(zé)任適用優(yōu)位要求。一方面,秉持不純粹客觀歸責(zé)理念的過錯(cuò)推定雖然在加害行為、損害結(jié)果、因果關(guān)系得以證成時(shí)事先推定過錯(cuò),但依舊為加害行為人保有自證機(jī)會(huì)。服務(wù)提供者得以通過積極舉證來推翻推定的過錯(cuò),這同時(shí)也反向激勵(lì)從業(yè)者注重技術(shù)的改進(jìn)和安全性的提升,助推產(chǎn)業(yè)走上可持續(xù)的發(fā)展道路。另一方面,由于《民法典》呈現(xiàn)“過錯(cuò)責(zé)任為一般,嚴(yán)格責(zé)任為例外”的二元格局,因此,原則上侵權(quán)行為都應(yīng)優(yōu)先適用過錯(cuò)歸責(zé)原則,而過錯(cuò)推定作為其內(nèi)在組成,置于生成式人工智能侵權(quán)場(chǎng)景,也正契合過錯(cuò)責(zé)任優(yōu)位適用的一般要求。
第二,過錯(cuò)推定責(zé)任的內(nèi)在獨(dú)有優(yōu)勢(shì)。(1)有利于實(shí)現(xiàn)過錯(cuò)不明風(fēng)險(xiǎn)的合理轉(zhuǎn)移。應(yīng)當(dāng)承認(rèn),生成式人工智能侵權(quán)行為在當(dāng)下無法實(shí)現(xiàn)完全預(yù)測(cè)和控制,甚至有時(shí)不僅受害人無法就過錯(cuò)進(jìn)行舉證,連服務(wù)提供者也不知自己是否存在過錯(cuò)。在有無過錯(cuò)的事實(shí)真相不明時(shí),過錯(cuò)推定中舉證義務(wù)倒置,意味著基于過錯(cuò)不明所產(chǎn)生的不利后果(如敗訴)將由處于優(yōu)勢(shì)地位的服務(wù)提供者來承擔(dān),也能同時(shí)實(shí)現(xiàn)對(duì)雙方不平等關(guān)系和不對(duì)稱權(quán)利結(jié)構(gòu)的矯正要求。(2)有利于明確生成式人工智能侵權(quán)行為的類別界限。目前無論是法律還是技術(shù)都尚未對(duì)生成式人工智能自主行為的可控標(biāo)準(zhǔn)形成統(tǒng)一認(rèn)知,行為可控與不可控之間的界限仍然模糊不清。過錯(cuò)推定的持續(xù)適用恰可使該界限自主顯現(xiàn)。當(dāng)生成式人工智能侵權(quán)糾紛不斷展露于現(xiàn)實(shí),服務(wù)提供者將竭力證明自身就涉案行為不具有過錯(cuò),而根據(jù)證明成否情況,能夠自然知悉哪些行為可為其所控。雖然隨著技術(shù)的發(fā)展進(jìn)步,當(dāng)下不可控的侵權(quán)行為會(huì)有部分進(jìn)入人類控制范疇,但隨著時(shí)間的推移,可控與不可控行為之間的界限將逐漸清晰,對(duì)可控標(biāo)準(zhǔn)的統(tǒng)一認(rèn)知也將日漸成型。(3)有利于滿足法律體系解釋的一致性要求。新興技術(shù)活動(dòng)致人損害適用過錯(cuò)推定責(zé)任,并非首創(chuàng)于生成式人工智能侵權(quán)場(chǎng)景,如信息處理行為侵害個(gè)人信息權(quán)益中適用的《個(gè)人信息保護(hù)法》第69條第1款便是典型前兆。更重要的是,信息處理行為作為先行行為,使個(gè)人信息處理者負(fù)有法定作為義務(wù),而在涉及法定作為義務(wù)產(chǎn)生過錯(cuò)推定責(zé)任的規(guī)定中,《民法典》也同樣要求特定主體通過舉證已經(jīng)履行作為義務(wù)從而免于承擔(dān)侵權(quán)責(zé)任。因此,生成式人工智能侵權(quán)采用過錯(cuò)推定責(zé)任,不僅可與同處新興技術(shù)領(lǐng)域的信息處理侵權(quán)歸責(zé)規(guī)范遙相呼應(yīng),而且也能同《民法典》內(nèi)的侵權(quán)責(zé)任體系保持步調(diào)一致。
由是觀之,過錯(cuò)推定責(zé)任的適用不僅具有堅(jiān)實(shí)的理論基礎(chǔ),而且能夠產(chǎn)生諸多社會(huì)實(shí)際效益,是解決當(dāng)前生成式人工智能侵權(quán)歸責(zé)難題的應(yīng)然選擇。
六、基于過錯(cuò)推定的生成式人工智能侵權(quán)責(zé)任具體適用
歸責(zé)原則以“過錯(cuò)”或“無過錯(cuò)”為節(jié)點(diǎn),不斷尋求侵權(quán)責(zé)任確立根據(jù),當(dāng)基于過錯(cuò)推定的生成式人工智能侵權(quán)責(zé)任驗(yàn)成,可以“過錯(cuò)推定”為基點(diǎn)連結(jié)責(zé)任主體,同時(shí)與損害賠償?shù)瘸袚?dān)方式接合,形成完整的侵權(quán)責(zé)任認(rèn)定邏輯。但仍有兩個(gè)關(guān)鍵問題有待處理,即生成式人工智能侵權(quán)過錯(cuò)推定責(zé)任應(yīng)由誰承擔(dān)?被告方應(yīng)通過何種舉證方式推翻推定的過錯(cuò)?
(一)過錯(cuò)推定責(zé)任的主體范圍
人工智能的自主性沒有為其賦予法律意義上承擔(dān)獨(dú)立責(zé)任的資格,因而為人工智能設(shè)置的侵權(quán)責(zé)任不是人工智能的責(zé)任,而是人工智能致人損害時(shí)的背后人的責(zé)任。確定責(zé)任承擔(dān)主體時(shí),應(yīng)充分考量生成式人工智能模型開發(fā)者(The Manufacturer)、運(yùn)營(yíng)者(The Operator)和使用者(The User)在此間產(chǎn)生的作用。但進(jìn)一步來說,能夠影響到內(nèi)容生成行為的主體實(shí)際遠(yuǎn)不止以上三種,還可能包括其他惡意利用或?yàn)E用生成式人工智能侵害他人權(quán)益的第三人,如黑客攻擊使其無法保持正常工作,從而出現(xiàn)誤差以致他人損害,該情形通常可基于技術(shù)中立原則,認(rèn)定侵權(quán)損害來源于惡意第三人之行為而非生成式人工智能模型,故此處實(shí)則尚未涉及生成式人工智能侵權(quán)過錯(cuò)推定責(zé)任的主體確定問題。
有鑒于現(xiàn)實(shí)場(chǎng)景中生成式人工智能常由模型開發(fā)者自主運(yùn)營(yíng),因此學(xué)理研究在討論人工智能侵權(quán)責(zé)任問題時(shí),并未有意識(shí)地對(duì)開發(fā)者和運(yùn)營(yíng)者予以區(qū)分,而多以服務(wù)提供者為名進(jìn)行合一處理。但隨著生成式人工智能模型功能的不斷強(qiáng)化,開發(fā)者除自行運(yùn)營(yíng)外,亦不排除將模型算法打包成組件并集成到其他經(jīng)營(yíng)者所運(yùn)營(yíng)的應(yīng)用程序或網(wǎng)絡(luò)平臺(tái)之可能。比如,微軟便推出基于GPT-3.5和GPT-4技術(shù)的Azure OpenAI,向微軟用戶提供人工智能生成服務(wù)。在此過程中,微軟僅實(shí)施購入該項(xiàng)技術(shù)并將之內(nèi)嵌于云平臺(tái)Azure的模型部署與運(yùn)營(yíng)行為,不會(huì)在實(shí)質(zhì)上改變生成式人工智能原本的底層決策邏輯和行為功能走向。因此確有必要將開發(fā)者與運(yùn)營(yíng)者進(jìn)行事先區(qū)分,這同時(shí)也意味著關(guān)鍵問題將聚焦于生成式人工智能侵權(quán)時(shí),開發(fā)者和運(yùn)營(yíng)者誰是過錯(cuò)推定責(zé)任的承擔(dān)主體?本文主張責(zé)任主體一般為開發(fā)者,而運(yùn)營(yíng)者僅在特定情形下負(fù)有證明自己無過錯(cuò)的責(zé)任。
第一,開發(fā)者作為責(zé)任主體的情形。一方面,生成式人工智能侵權(quán)行為直接體現(xiàn)開發(fā)者意志。由于生成式人工智能的深度自主性是帶有純技術(shù)色彩的行為自主性,而非主觀層面的意志自主性,因此其始終不具備法律主體身份,而仍處物件范疇。故而,可適用“刺破人工智能面紗原則”要求背后實(shí)際控制人——即開發(fā)者——承擔(dān)侵權(quán)責(zé)任。如OpenAI作為ChatGPT的開發(fā)者通過訓(xùn)練數(shù)據(jù)選取、變量選擇、權(quán)重設(shè)定等可直接決定ChatGPT內(nèi)容生成行為的底層邏輯,自主創(chuàng)造并發(fā)布侵權(quán)信息的行為歸根結(jié)底遵循開發(fā)者預(yù)先設(shè)計(jì)的程序,受到開發(fā)者控制,是開發(fā)者意志的集中體現(xiàn)。另一方面,生成式人工智能是涉案侵權(quán)信息的直接來源。若生成式人工智能創(chuàng)造并發(fā)布的一手信息涉及侵權(quán),便需依“誰發(fā)布、誰負(fù)責(zé)”原理追究發(fā)布者的責(zé)任。同時(shí),因?yàn)榍謾?quán)行為背后由開發(fā)者意志支撐,所以需穿透式地要求開發(fā)者承擔(dān)生成式人工智能侵權(quán)的過錯(cuò)推定責(zé)任。當(dāng)然仍需強(qiáng)調(diào),若ChatGPT輸出的侵權(quán)信息僅是從已有互聯(lián)網(wǎng)信息中檢索所得,且未作實(shí)質(zhì)性改變,那么生成式人工智能本身僅為傳播媒介,并不會(huì)與侵權(quán)事件產(chǎn)生直接關(guān)聯(lián),此時(shí)開發(fā)者僅需承擔(dān)因未履行必要的通知?jiǎng)h除等義務(wù)而產(chǎn)生的連帶責(zé)任。
第二,運(yùn)營(yíng)者作為責(zé)任主體的情形。生成式人工智能模型運(yùn)營(yíng)者在本質(zhì)上與微博、推特等傳統(tǒng)網(wǎng)絡(luò)服務(wù)提供者并無不同,當(dāng)平臺(tái)中的人工智能生成內(nèi)容侵害他人合法權(quán)益或公共利益時(shí),需依據(jù)《民法典》第1194、1195和1197條,承擔(dān)因自己利用網(wǎng)絡(luò)侵害他人權(quán)益的自己責(zé)任,或在有效通知后與明知情況下,負(fù)有因未及時(shí)履行后續(xù)刪除、斷開連接等義務(wù)產(chǎn)生的連帶責(zé)任。特別問題是,倘若運(yùn)營(yíng)者與開發(fā)者之間形成關(guān)于生成式人工智能模型的承攬定作關(guān)系,是否可同時(shí)要求運(yùn)營(yíng)者成為過錯(cuò)推定責(zé)任的承擔(dān)主體?根據(jù)《民法典》第1193條,定作人僅基于定作、指示或選任過錯(cuò)而對(duì)承攬人在完成工作過程中造成的損害擔(dān)責(zé),并未直接提及工作成果(即生成式人工智能模型)自主侵權(quán)時(shí)定作人的責(zé)任問題。結(jié)合過錯(cuò)推定的一般原理,或可進(jìn)行如下安排:其一,由于運(yùn)營(yíng)者的定作、指示等行為能夠直接影響甚至決定生成式人工智能的設(shè)計(jì)開發(fā)流程,因此可在視作運(yùn)營(yíng)者參與開發(fā)的基礎(chǔ)上要求運(yùn)營(yíng)者承擔(dān)生成式人工智能侵權(quán)的過錯(cuò)推定責(zé)任;其二,由于運(yùn)營(yíng)者僅能夠通過定作、指示等行為對(duì)生成式人工智能模型的設(shè)計(jì)開發(fā)環(huán)節(jié)產(chǎn)生影響,因此過錯(cuò)推定責(zé)任下運(yùn)營(yíng)者僅需證明就定作、指示或選任行為不存在過錯(cuò)。
雖技術(shù)本身中立,但技術(shù)設(shè)計(jì)與合規(guī)情況乃至服務(wù)目的都由背后資本操縱,故生成式人工智能侵權(quán)過錯(cuò)推定責(zé)任的承擔(dān)主體一般為開發(fā)者,運(yùn)營(yíng)者僅在模型承攬定作中就定作、指示或選任問題承擔(dān)過錯(cuò)推定責(zé)任。當(dāng)然,二者是否存在承攬定作關(guān)系仍需受害人舉證,若受害人無法證明承攬定作關(guān)系存在,則不應(yīng)要求運(yùn)營(yíng)者承擔(dān)相關(guān)過錯(cuò)推定責(zé)任。
(二)過錯(cuò)推定責(zé)任的舉證方式
服務(wù)提供者主觀心理狀態(tài)究竟為故意還是過失,對(duì)生成式人工智能侵權(quán)歸責(zé)并無實(shí)質(zhì)影響,過錯(cuò)推定意味著“客觀違法行為”全部或部分取代對(duì)“主觀心理過錯(cuò)”的證明。比如,動(dòng)物園動(dòng)物致人損害中負(fù)有安全保障義務(wù)的動(dòng)物園未采取管理措施或管理措施實(shí)施不當(dāng)?shù)模瑒t管理行為具有違法性并被推定有過錯(cuò)。個(gè)人信息處理侵權(quán)致?lián)p中負(fù)有個(gè)人信息保護(hù)義務(wù)的處理者違法處理個(gè)人信息,則處理行為具有違法性并被推定有過錯(cuò)。當(dāng)然,過錯(cuò)推定不僅利于原告,而且也能由被告使用,助其通過反證推翻推定過錯(cuò)。循此邏輯并回歸生成式人工智能侵權(quán)場(chǎng)景,服務(wù)提供者或可進(jìn)行如下舉證:
第一,通過證明不存在客觀違法行為來推翻推定的過錯(cuò)。存在違法行為,才存在推定過錯(cuò)。正如個(gè)人信息侵權(quán)過錯(cuò)推定責(zé)任中,若處理者能證明自己的信息處理行為合法合規(guī),便不具有過錯(cuò)并可免于承擔(dān)過錯(cuò)責(zé)任。同理,雖然受害人提起侵權(quán)訴訟常會(huì)指明生成式人工智能生成了哪些違法內(nèi)容或服務(wù)提供者存在哪些違法行為,但若服務(wù)提供者能對(duì)受害人主張的具有違法性的原始事實(shí)進(jìn)行反證,那么將直接使違法推定過錯(cuò)適用的前提基礎(chǔ)完全喪失,進(jìn)而免于因存在推定的過錯(cuò)而擔(dān)責(zé)。比如,服務(wù)提供者可證明生成式人工智能所生成的內(nèi)容不屬于虛假信息、歧視信息或其他被禁止生成的信息,抑或未對(duì)原告造成實(shí)際損害。
第二,通過證明雖然存在客觀違法行為,但是該行為不可預(yù)見和避免。不可否認(rèn),生成式人工智能的確可能超出服務(wù)提供者的預(yù)計(jì)和掌控范圍,自主生成侵權(quán)信息并導(dǎo)致侵權(quán)事實(shí),若繼續(xù)推定服務(wù)提供者對(duì)此存在主觀過錯(cuò),并進(jìn)而要求其承擔(dān)侵權(quán)責(zé)任并不妥當(dāng)。參考個(gè)人信息侵權(quán)過錯(cuò)推定責(zé)任中的注意義務(wù)可知,不可預(yù)見和避免這一結(jié)論實(shí)以服務(wù)提供者已經(jīng)盡到其應(yīng)盡之注意義務(wù)為前提,且該注意義務(wù)所涉內(nèi)容并不僅限于申報(bào)安全評(píng)估、算法備案登記以及內(nèi)容標(biāo)準(zhǔn)等法律規(guī)范業(yè)已列明的形式部分,還包括特定情形中可推知服務(wù)提供者應(yīng)當(dāng)履行的實(shí)質(zhì)部分。比如《生成式人工智能服務(wù)管理暫行辦法》第4條僅規(guī)定,應(yīng)當(dāng)采取有效措施防止生成虛假信息、歧視信息等。但鑒于相關(guān)技術(shù)尚處起步階段,對(duì)具體措施內(nèi)容并未闡明也無法闡明,因此服務(wù)提供者為防止生成虛假信息和歧視信息等內(nèi)容所采取的預(yù)防措施應(yīng)達(dá)何種程度并無確定標(biāo)準(zhǔn),而是需結(jié)合技術(shù)實(shí)際發(fā)展水平加以判斷。總體而言,在存在客觀違法行為時(shí),服務(wù)提供者不僅需證明自己已經(jīng)履行法定注意義務(wù),還應(yīng)證明相關(guān)行為在現(xiàn)有技術(shù)條件下確實(shí)無法預(yù)測(cè)和避免。當(dāng)然,受害人此間始終保有反證之權(quán)利。
七、結(jié)語
行為邏輯影響責(zé)任認(rèn)定,責(zé)任認(rèn)定應(yīng)滿足現(xiàn)實(shí)的利益衡平要求。生成式人工智能的侵權(quán)行為雖存在單獨(dú)性、直接性、深度自主性和純技術(shù)性等特性,但尚不足以使其拒絕沿用傳統(tǒng)的過錯(cuò)推定責(zé)任。同時(shí),開發(fā)者和運(yùn)營(yíng)者若被推定存在過錯(cuò),則需各自就“過錯(cuò)”獨(dú)立承擔(dān)不同的舉證責(zé)任。通過侵權(quán)行為特性剖析、侵權(quán)歸責(zé)原則選用、侵權(quán)責(zé)任主體確定三步程序,我們能對(duì)文首提出的時(shí)代之問——人工智能自主生成信息內(nèi)容侵害他人合法權(quán)益時(shí),如何對(duì)此種侵權(quán)行為進(jìn)行法律歸責(zé)——形成初步回應(yīng)。不過,侵權(quán)問題畢竟是一類極為古老且龐雜的社會(huì)糾紛,本文寥寥內(nèi)容莫不謂是開其處理端緒,而關(guān)于生成式人工智能侵權(quán),其他如損害類型、救濟(jì)措施乃至責(zé)任限制等,無一不是應(yīng)接續(xù)研討之議題。
注:因字?jǐn)?shù)關(guān)系,注釋省略。如引用、轉(zhuǎn)發(fā)請(qǐng)注明《電子知識(shí)產(chǎn)權(quán)》2025年第8期(未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制及建立鏡像,違者將依法追究法律責(zé)任)
![]()
本公眾號(hào)定期推送知識(shí)產(chǎn)權(quán)及競(jìng)爭(zhēng)政策相關(guān)的法律政策與政府文件、最新全球行業(yè)信息、原創(chuàng)文章與專家觀點(diǎn)、業(yè)內(nèi)高端活動(dòng)消息、《電子知識(shí)產(chǎn)權(quán)》(月刊)&《競(jìng)爭(zhēng)政策研究》(雙月刊)文章節(jié)選及重磅全文、專利態(tài)勢(shì)發(fā)布、中心最新成果發(fā)布及相關(guān)新聞報(bào)道等諸多內(nèi)容,歡迎各界人士關(guān)注!
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.