平臺判定用戶內容AI生成首案:用戶與平臺證明責任的司法探索
人工智能生成合成內容是一把“雙刃劍”,一方面,其提高了內容創(chuàng)作者的創(chuàng)作效率與質量,為公眾提供了更豐富、優(yōu)質的消費內容,另一方面,其亦可能成為謠言與虛假信息的“催化劑”,給社會穩(wěn)定秩序帶來不安定因素。為促進人工智能的健康發(fā)展,規(guī)范人工智能生成合成內容標識,2025年9月1日起施行的《人工智能生成合成內容標識辦法》(以下簡稱《標識辦法》)作出明確規(guī)定,要求用戶在發(fā)布人工智能生成合成內容時主動聲明并加以標識,同時要求網絡信息內容傳播服務者采取必要措施,規(guī)范相關內容的傳播活動。
在《標識辦法》實施前夕,北京互聯網法院審結了一起網絡服務合同糾紛案,是全國首例“平臺判定用戶內容AI生成”的案件。該案審理法院進一步明確,在涉及人工智能生成合成內容標識的爭議中,用戶與網絡服務平臺各自應當承擔的證明責任,并提出了更明確的證明標準。作為全國首例案件,該案不僅回應了《標識辦法》有關用戶聲明義務與平臺治理責任的制度要求,并且為后續(xù)類似爭議的處理提供了可供參考的裁判范式,具有積極的引導作用。
該案中,用戶因其發(fā)布的內容被網絡服務平臺認定為人工智能生成合成內容,繼而被處以內容隱藏與禁言 一天的處罰,遂提起訴訟,主張平臺行為構成違約。平臺則主張,依據雙方簽訂的網絡服務協(xié)議,其享有內容審查與管理的權利,故其行為并不構成違約。由于《標識辦法》暫未施行,審理法院依據《互聯網信息服務深度合成管理規(guī)定》確定平臺方享有審查權限,該案的爭議焦點隨即集中于:用戶發(fā)布內容是否由人工智能生成,以及應由何方承擔舉證責任。
對于作為原告的用戶而言,審理法院一方面確認其應當承擔初步的證明責任,另一方面又結合案件事實與雙方舉證能力,對證明責任進行了適當的再分配。本案中,原告認為,其所發(fā)布的內容被平臺認定為由人工智能生成并受到內容隱藏與禁言一天的處罰,構成對網絡服務協(xié)議的違約行為。依據《中華人民共和國民事訴訟法》第六十七條與相關司法解釋,主張合同權利受到妨害的一方,應當就其權利受到妨害的事實承擔證明責任。因此,原告應承擔相應的證明責任。在此基礎上,審理法院有必要進一步厘清證明責任范圍是否僅限于平臺實施了相關限制行為,還是應當包括其涉案內容是否屬于人工智能生成合成內容。結合本案具體情節(jié),被告作為網絡服務的提供方,享有對用戶發(fā)布內容的審查與管理的權利,采取限制措施屬于平臺履行合同義務的正常行為。因此,判斷被告是否構成違約的關鍵在于,涉案內容是否由人工智能生成。該事實作為影響平臺行為是否構成違約的關鍵因素,屬于決定法院裁判的主要事實。因此,原告在承擔初步證明責任時,應當就其發(fā)布內容為人類創(chuàng)作提供具備一定說服力的初步證據,如創(chuàng)作底稿、原始文檔等。然而,本案審理法院在確認原告承擔初步證明責任的同時,進一步結合具體案情和雙方當事人的舉證能力,對證明責任進行了合理再分配。原告在庭審中提出,其所發(fā)布內容為即時性創(chuàng)作,客觀上難以提供創(chuàng)作底稿與原始文檔。通常情形下,原告若無法完成舉證,將面臨舉證不能的不利后果。但本案中,涉案內容是否為人工智能生成并非無法查證,被告作為平臺方具備更為充分的舉證條件??紤]到爭議事實的可證性與被告的舉證優(yōu)勢,法院將關鍵事實的證明責任部分轉移至被告,實現證明責任的合理分配。
對于作為被告的網絡服務平臺,審理法院一方面明確其在本案中的證明責任,另一方面還就“涉案內容是否由人工智能生成”的主要事實,設定了更為具體的證明標準。依據民事訴訟法第六十七條、第七十條,人民法院有權要求當事人配合調查并提交相關證據材料。從案件事實來看,網絡服務平臺在判斷用戶內容是否由人工智能生成時,依賴于自身算法工具,其既是工具的掌握方,又是結果的判斷方,具備充足的舉證能力。因此,法院要求其承擔相應的證明責任,具有合法性與合理性。更具啟發(fā)意義的是,該案的審理法院在明確平臺證明責任的同時,還就“涉案內容是否為人工智能生成”這一主要事實提出了具體的證明標準。
依據《最高人民法院關于適用〈中華人民共和國民事訴訟法〉的解釋》第一百零八條,一般合同糾紛中的證明標準為“高度可能性”,即當事人提交的證據雖然未能讓法官對待證事實確信只能如此的程度,但已經相信存在極大可能或非??赡苋绱说某潭取T凇案叨瓤赡苄浴钡幕A上,法院結合平臺使用“算法工具﹢人工復核”的雙重判定機制的事實,對平臺提交的證據分別提出了更具針對性的要求。具體而言,對于算法工具的判斷結果,平臺應圍繞“判斷依據”和“判斷結果”提交證據并作出解釋;對于人工復核部分,則應提供具備科學依據的,以及較強說服力與可信度的佐證材料。然而在本案中,平臺僅提交了算法備案信息,備案信息又僅表明算法功能為識別具有安全風險的回答,與涉案內容缺乏直接關聯性;同時,對于人工復核部分,平臺僅解釋“需要非常明確的人類情感特征”才能駁回算法結果,不具有科學依據,亦缺乏較強的說服力和可信度。因此,法院最終判決平臺應當展開涉案內容的隱藏,刪除用戶在后臺的違規(guī)處理記錄。
對于作為司法機構的法院而言,該案對人工智能生成合成內容爭議中的證明責任分配提供了重要啟示,我國法院未來應在此類案件中探索證明責任倒置模式。作為“誰主張,誰舉證”原則的例外,證明責任倒置已在我國環(huán)境污染損害、醫(yī)療侵權等案件中得到適用,其核心在于考慮當事人的舉證能力、更有利于權利保護等公平因素,將原本應由一方承擔的證明責任轉由對方承擔。在“平臺判定用戶內容AI生成首案”中,法院雖然采取了初步證明責任﹢再分配的方式,但從制度設計角度出發(fā),未來可在此類糾紛中由平臺直接承擔“涉案內容是否由人工智能生成”的證明責任,更具合理性。
其一,從平臺與用戶的關系結構出發(fā),平臺顯然處于優(yōu)勢地位。雖然從表面上看,用戶與平臺之間是平等的合同法律關系,但在實際運行中,平臺掌握對內容的審查與處罰權限,用戶則缺乏有效的反制能力,處于事實上的弱勢地位。同時,平臺作為算法工具的運用方與數據掌控者,具備遠強于用戶的舉證能力。因此,從維護弱勢方合法權益的角度出發(fā),要求平臺承擔證明責任更具公平性。
其二,從推動算法工具迭代與提高識別準確性角度來看,將證明責任賦予平臺能夠激活制度激勵功能。承擔證明責任意味著面臨因舉證不能而敗訴的風險,這一制度壓力將促使平臺持續(xù)優(yōu)化算法模型,提高對人工智能生成內容的識別準確率,防止錯誤標記帶來不必要的糾紛,同時有助于從技術路徑上防范人工智能生成虛假內容影響社會穩(wěn)定。
面對人工智能技術迅猛發(fā)展帶來的機遇與挑戰(zhàn),司法機關必須主動發(fā)揮司法功能,回應新技術背景下的權利保護與責任劃分問題。證明責任作為司法裁判中的核心制度工具,能夠引導技術發(fā)展方向,規(guī)制行為人的行為。在人工智能相關案件中,人民法院應結合技術特性與制度目標,在法律層面推動人工智能技術實現安全、可信與可靠的發(fā)展目標。(西南政法大學國際法學專業(yè)2021級博士研究生 楊運濤)
編輯:高弼浡




京公網安備 11010502000576號