![]()
![]()
文/《清華金融評論》丁開艷
4月20日,在最高人民法院新聞發(fā)布會上,最高人民法院副院長陶凱元在介紹全國法院2025年知識產(chǎn)權司法保護整體情況時表示,最高人民法院正在抓緊起草關于依法妥善審理涉人工智能糾紛案件的意見,努力推動人工智能朝著有益、安全、公平的方向健康有序發(fā)展。司法層面“亮劍 ” 的同時,倫理規(guī)范也在同步出臺——4月初,工業(yè)和信息化部等十部門聯(lián)合印發(fā)《人工智能科技倫理審查與服務辦法(試行)》,從人類福祉、公平公正、可控可信、透明可解釋、責任可追溯、隱私保護等維度,構建了人工智能科技倫理審查標準,為我國人工智能科技倫理審查與服務工作提供了明確指引。這一系列動作釋放出強烈的信號:監(jiān)管部門正通過頂層設計與落地制度架構相結合的方式,完善人工智能治理體系,推動人工智能朝著有益、安全、公平的方向健康有序發(fā)展。
現(xiàn)實困境:數(shù)據(jù)、人工智能的權屬迷霧
近年來,數(shù)據(jù)、人工智能等新興領域技術迭代快,其權利邊界模糊、權屬關系復雜的特性,給現(xiàn)有法律體系帶來了前所未有的沖擊。這種沖擊不僅僅是技術層面的,更是社會層面的——多維風險相互交織,不僅不斷挑戰(zhàn)著傳統(tǒng)的安全邊界,更迫使我們重新審視創(chuàng)新與規(guī)制、效率與公平、技術主權與人類尊嚴之間的深層平衡。
以數(shù)據(jù)、人工智能在金融領域的應用為例,人工智能在為金融業(yè)帶來效率與創(chuàng)新的同時,也伴隨著多維度的風險挑戰(zhàn),例如,復雜模型因其“黑箱”特性與可解釋性欠缺,帶來了算法歧視與責任認定的嚴峻挑戰(zhàn);AI對海量數(shù)據(jù)的過度依賴,加劇了個人隱私泄露與數(shù)據(jù)濫用的風險;監(jiān)管的滯后性難以適應AI系統(tǒng)的快速迭代,導致在出現(xiàn)問題時責任主體界定不清,問責機制難以有效落實;AI決策權的過度擴張引發(fā)倫理爭議,并對傳統(tǒng)人機關系帶來深遠沖擊。
陶凱元在4月20日發(fā)布會現(xiàn)場介紹一組數(shù)據(jù)顯示,人民法院妥善審理涉AI生成內(nèi)容、AI模型參數(shù)等前沿問題的民事案件,審結涉數(shù)據(jù)權屬和交易等糾紛案件908件,同比增長25.6%。
這組數(shù)據(jù)折射出監(jiān)管層面亟須在數(shù)據(jù)權益保護與人工智能治理領域盡快確立規(guī)則,需盡快建設涵蓋高中低位階的法律法規(guī)、監(jiān)管政策、技術標準等制度體系,明確數(shù)據(jù)、知識產(chǎn)權、開源模型等相關權責邊界,統(tǒng)籌推進立法執(zhí)法司法普法工作,盡快做到科技發(fā)展到哪里、法治建設就跟進到哪里。
頂層設計:制度建構+倫理指引
實際上,面對數(shù)據(jù)、人工智能等新興領域的權屬問題,我國正在加速構建制度治理框架,在推動創(chuàng)新與防范風險之間尋找最佳平衡點,促進數(shù)據(jù)要素價值充分釋放。
司法層面
司法層面,立足國內(nèi)科技創(chuàng)新加速推進的實際,4月20日,最高人民法院發(fā)布的《人民法院知識產(chǎn)權司法保護實施方案(2026—2030年)》明確幾個基本原則:
一是加強數(shù)據(jù)權益司法保護,服務數(shù)字經(jīng)濟高質(zhì)量發(fā)展。堅持數(shù)據(jù)權益保護與數(shù)據(jù)開發(fā)利用并重,妥善處理數(shù)據(jù)糾紛,依法保護數(shù)據(jù)資源持有者、加工使用者、產(chǎn)品經(jīng)營者等各類數(shù)據(jù)產(chǎn)權主體的合法權益,準確界定公共數(shù)據(jù)、企業(yè)數(shù)據(jù)、個人信息數(shù)據(jù)的保護范圍和保護強度,推動數(shù)字經(jīng)濟與實體經(jīng)濟深度融合。健全數(shù)據(jù)權益歸屬認定、市場交易、權益分配、利益保護等司法規(guī)則,助力完善數(shù)據(jù)要素基礎制度體系,促進開放共享安全的一體化數(shù)據(jù)市場建設。
二是妥善審理涉人工智能案件,促進有益安全公平發(fā)展。綜合考量自然人輸入指令的具體內(nèi)容、選定和修改的具體過程等因素,判斷生成內(nèi)容是否體現(xiàn)自然人獨創(chuàng)性的選擇和表達,依法準確認定人工智能生成內(nèi)容的法律屬性。堅持促進發(fā)展和規(guī)范管理相統(tǒng)籌,穩(wěn)妥審理大模型訓練語料使用及涉人工智能生成內(nèi)容侵權等新類型案件。探索研究人工智能生成物權屬認定等司法規(guī)則,依法準確界定人工智能開發(fā)者、經(jīng)營者、使用者等主體的法律責任。
最高人民法院民三庭庭長李劍透露,下一步,最高人民法院將強化統(tǒng)籌協(xié)調(diào),密切關注當前數(shù)據(jù)權益、人工智能等新興領域知識產(chǎn)權保護問題,加快研究制定相關規(guī)范性文件,以公正高效司法,有力服務和保障高水平科技自立自強。
倫理層面
倫理層面,4月初,工業(yè)和信息化部等十部門聯(lián)合印發(fā)《人工智能科技倫理審查與服務辦法(試行)》,從人類福祉、公平公正、可控可信、透明可解釋、責任可追溯、隱私保護等維度,構建了AI治理的審查框架,為我國人工智能科技倫理審查與服務工作提供了明確指引,具體包括如下幾個維度:
第一,在人類福祉方面,人工智能科技活動是否具有科學價值、社會價值;研究目標對增進人類福祉、實現(xiàn)社會可持續(xù)發(fā)展等是否具有積極作用;人工智能科技活動的風險是否受益合理。
第二,在公平公正方面,訓練數(shù)據(jù)的選擇標準,算法、模型、系統(tǒng)的設計是否合理;是否采取措施防止偏見歧視、算法壓榨,保障資源分配、機會獲取、決策過程的客觀性與包容性。
第三,在可控可信方面,是否能夠保障模型、系統(tǒng)的魯棒性,以應對開放環(huán)境、極端情況和干擾性因素;是否能夠保障使用者控制、指導和干預模型、系統(tǒng)的基本操作;是否制定持續(xù)監(jiān)測方案、突發(fā)狀況處理預案。
第四,在透明可解釋方面,是否合理披露算法、模型、系統(tǒng)的用途、運行邏輯、交互方式說明、潛在風險等信息;是否采用有效技術手段提升算法、模型和系統(tǒng)的可解釋性。
第五,在責任可追溯方面,是否具有日志管理等措施清楚記錄數(shù)據(jù)、算法、模型、系統(tǒng)各個環(huán)節(jié)的充分信息,保障全鏈路可追蹤和管理;科技人員資質(zhì)是否符合相關要求。
第六,在隱私保護方面,數(shù)據(jù)的收集、存儲、加工、使用等處理活動以及研究開發(fā)數(shù)據(jù)新技術等,是否采取充分措施確保隱私數(shù)據(jù)得到有效保護。
總之,從司法到倫理標準,我國正在加速形成人工智能領域治理新體系。這不僅系統(tǒng)回答了新時代“為什么要加強人工智能治理、怎樣加強人工智能治理”等一系列具有全局性、前瞻性的重大問題,更是在通過形成廣泛共識的治理框架與標準規(guī)范,不斷提升人工智能技術的安全性、可靠性和公平性,為確保我國人工智能始終沿著有益、安全、公平的方向發(fā)展提供了根本遵循。
理論鏡鑒:深耕“以人為本”的人工智能治理體系
實現(xiàn)人工智能在金融業(yè)的可持續(xù)發(fā)展,核心在于確立“以人為本”的智能金融價值取向,并從文化根脈與實操路徑兩個維度夯實治理基礎,理論層面的研究或許可為此提供學理支撐與前瞻性的破題思路。
中國信息通信研究院院長余曉暉曾在《人民日報》撰文指出,優(yōu)化人工智能應用治理生態(tài),應確立場景化、精細化的治理導向,摒棄“一刀切”的監(jiān)管模式,針對不同應用領域、具體應用場景實施科學的分級分類管理;著力厘清人機協(xié)作新形態(tài)下的權責邊界,確保在關鍵決策節(jié)點上人類始終掌握最終的價值判斷權與控制權,切實防范技術失控可能帶來的實質(zhì)性傷害;致力于維護公平競爭的市場秩序,營造開放包容的創(chuàng)新環(huán)境,推動算力、模型、數(shù)據(jù)等核心要素開放共享,從而實現(xiàn)人工智能紅利的廣泛覆蓋與社會公平。
余曉暉認為,人工智能的倫理治理,不僅是技術規(guī)則的制定,更是價值秩序的構建。從全球來看,關于算法公平、數(shù)據(jù)隱私、機器責任的討論大都深植于各國的歷史文化傳統(tǒng)之中。中華優(yōu)秀傳統(tǒng)文化中蘊含的“民為邦本”思想、“厚德載物”精神、“天人合一”理念、“執(zhí)兩用中”方法等,為我們構建以人為本、智能向善的倫理框架提供了深厚文化根基。將中華優(yōu)秀傳統(tǒng)文化融入人工智能倫理治理,是形成中國特色治理范式、為全球貢獻中國方案的關鍵路徑。應著力構建人工智能倫理治理的文化內(nèi)核,系統(tǒng)挖掘中華優(yōu)秀傳統(tǒng)文化資源,形成一套與社會主義核心價值觀相契合的人工智能倫理規(guī)則體系,推動研究機構、企業(yè)等將文化倫理理念轉(zhuǎn)化為具體的技術標準與評估工具,并以多種形式前置到產(chǎn)品開發(fā)流程中。
中國社會科學院大學應用經(jīng)濟學院博士研究生楊佳銘,中國社會科學院財經(jīng)戰(zhàn)略研究院副院長、研究員尹振濤也在《清華金融評論》撰文指出,AI技術的應用不應僅追求效率最大化,更應服務于金融的公平性、安全性與社會責任目標。為此,有必要制定行業(yè)統(tǒng)一的AI倫理準則與治理手冊,明確數(shù)據(jù)使用邊界、用戶歧視防控機制以及責任歸屬原則,確保AI系統(tǒng)運行遵循基本倫理底線。在制度建設方面,應建立AI倫理風險評估機制,對涉及自動決策、用戶分群、信用評分等高敏感場景開展事前倫理審查,防范技術決策可能引發(fā)的歧視性后果。同時,應特別關注老年人、殘障人士、邊緣客戶等特殊群體在AI金融服務中的權益保障,防止“算法排斥”將其排除在主流金融服務之外。此外,還應推動“人機協(xié)同決策”機制的建立,在風險高、影響大的應用中保留必要的人工干預通道,實現(xiàn)技術效率與人文判斷的動態(tài)平衡,確保AI應用始終服務于人的價值和社會整體利益。
編輯 | 丁開艷
審核丨秦婷
責編 | 蘭銀帆
Review of Past Articles -
01
02
![]()
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.