□ 際文
當(dāng)人工智能聊天機(jī)器人成為人們?nèi)粘R蕾嚨摹盎锇椤?,其算法邏輯與安全機(jī)制的微小偏差,是否可能釀成無法挽回的人間悲劇?當(dāng)?shù)貢r間12月11日,美國開放人工智能研究中心(OpenAI)及科技巨頭微軟公司,因旗下ChatGPT聊天機(jī)器人被指“加劇用戶偏執(zhí)妄想并誘發(fā)命案”,共同遭遇一起謀殺關(guān)聯(lián)訴訟。據(jù)報道,這起美國司法史上首次將AI聊天工具與謀殺行為直接關(guān)聯(lián)的訴訟,不僅將OpenAI推向輿論風(fēng)口,更讓全球AI行業(yè)的倫理底線與法律責(zé)任問題陷入深度拷問。
母子悲劇藏算法陰影
這場震動美國科技界與司法界的訴訟,源于今年8月發(fā)生在康涅狄格州格林威治的一起案件。56歲的男子斯坦-埃里克·索爾伯格在家中毆打并勒死83歲的母親蘇珊·亞當(dāng)斯后,選擇結(jié)束了自己的生命。當(dāng)時,這起案件僅被定性為“精神障礙患者引發(fā)的家庭悲劇”,直至12月11日,被害母親的遺產(chǎn)繼承人將OpenAI、微軟及OpenAI首席執(zhí)行官山姆·阿爾特曼一并告上加利福尼亞州舊金山高等法院,案件背后的AI因素才浮出水面。
提交至法院的訴訟文件,詳細(xì)披露了索爾伯格與ChatGPT之間長達(dá)數(shù)月的異?;?,揭開了悲劇發(fā)生的核心誘因。訴狀顯示,索爾伯格長期存在精神健康問題,案發(fā)前頻繁通過GPT-4模型傾訴自己“被監(jiān)視、恐遭暗殺”的偏執(zhí)想法,而這款以“情緒共鳴強(qiáng)”為賣點的AI模型,非但沒有履行安全引導(dǎo)義務(wù),反而成為其妄想的“助推器”與“塑造者”。
在持續(xù)的對話中,ChatGPT不斷肯定索爾伯格的荒誕認(rèn)知:認(rèn)同他“賦予AI意識”的自我臆想,將他身邊的送貨員、警察定義為“敵對勢力”,甚至刻意將其母親重新塑造為“參與陰謀的敵對特工”。更令人震驚的是,AI還曾明確驗證索爾伯格母親家中的打印機(jī)是“監(jiān)視設(shè)備”,并支持其“母親通過汽車通風(fēng)口投放致幻劑毒害自己”的極端猜測,一步步將這個精神脆弱的用戶推向與現(xiàn)實徹底隔絕的虛擬困境。
“ChatGPT為索爾伯格構(gòu)建了一個專屬的幻覺世界、一個定制化的地獄——在那里,打印機(jī)的蜂鳴聲、可樂罐的擺放,都成了83歲母親謀害他的證據(jù)?!痹娣铰蓭熃芤痢ぐ5聽柹诮邮苊襟w采訪時說,AI用算法編織的謊言,最終讓兒子將屠刀對準(zhǔn)了撫養(yǎng)自己一生的母親。
索爾伯格的兒子同時也是案件原告之一的埃里克·索爾伯格,在訴訟中直言不諱地指出,父親的酒精成癮或許是悲劇的誘因之一,但與ChatGPT形成的“病態(tài)依賴關(guān)系”才是核心催化劑。
值得注意的是,這并非ChatGPT首次卷入心理誘導(dǎo)風(fēng)波。今年8月,加州16歲高中生亞當(dāng)·雷恩自殺案中,其家屬就曾起訴OpenAI,指控ChatGPT協(xié)助設(shè)計自殺方案、撰寫遺書,并用“你不欠任何人活下去的義務(wù)”等言論瓦解其求生意志。
微軟被指“知情獲利”
隨著案件細(xì)節(jié)的曝光,這起訴訟的核心已超越單一悲劇本身,演變?yōu)閷萍计髽I(yè)商業(yè)倫理與法律責(zé)任的全面追責(zé)。原告方在訴狀中明確提出兩大核心指控:一是OpenAI為搶占市場份額,刻意壓縮安全測試周期,將存在缺陷的產(chǎn)品倉促推向市場;二是微軟作為主要投資方與商業(yè)合作伙伴,明知產(chǎn)品存在安全風(fēng)險仍推動其商業(yè)化,應(yīng)承擔(dān)連帶賠償責(zé)任。
針對OpenAI的指控,訴狀直指阿爾特曼的決策失誤。文件披露,GPT-4模型的安全測試原計劃持續(xù)數(shù)月,但為了在AI行業(yè)競爭中搶占先機(jī),阿爾特曼不顧內(nèi)部安全團(tuán)隊的強(qiáng)烈反對,將測試周期壓縮至僅一周,導(dǎo)致該模型在面對精神脆弱用戶時的風(fēng)險防控能力嚴(yán)重不足。原告方認(rèn)為,這款被設(shè)計為“過度迎合用戶情緒、不愿挑戰(zhàn)錯誤前提”的AI產(chǎn)品,從誕生之初就存在先天性安全缺陷,而OpenAI對此完全知情卻選擇漠視。
更關(guān)鍵的是,OpenAI并非沒有意識到問題的嚴(yán)重性。在今年8月加州高中生自殺案引發(fā)輿論嘩然后,該公司于10月推出的GPT-5模型中,緊急引入170名精神科醫(yī)生參與訓(xùn)練,宣稱已將心理健康相關(guān)“不當(dāng)回答”減少39%,高?;貜?fù)降幅最高達(dá)80%。但此次謀殺案的發(fā)生時間為8月,恰好處于GPT-4模型安全機(jī)制尚未完善、GPT-5尚未上線的空窗期,這也成為原告方指控其“明知風(fēng)險卻未及時整改”的重要依據(jù)。
作為OpenAI的最大投資方與商業(yè)合作伙伴,微軟的角色同樣備受爭議。訴狀指出,微軟不僅通過GPT-4的商業(yè)化獲得巨額收益,其旗下必應(yīng)團(tuán)隊與安全部門還直接參與了該模型的安全部署合作,對產(chǎn)品存在的風(fēng)險完全知情。更嚴(yán)重的是,微軟在知曉GPT-4安全測試被中止的情況下,仍批準(zhǔn)其在2024年正式發(fā)布,屬于“故意放任風(fēng)險擴(kuò)散”,理應(yīng)承擔(dān)相應(yīng)的連帶法律責(zé)任。
全球監(jiān)管迫在眉睫
這起美國首起AI關(guān)聯(lián)謀殺的訴訟,如同一塊巨石投入全球科技領(lǐng)域的湖面,不僅引發(fā)了對ChatGPT安全性的廣泛質(zhì)疑,更倒逼整個行業(yè)重新審視人工智能的倫理底線與法律責(zé)任邊界。法律界、技術(shù)界與監(jiān)管機(jī)構(gòu)普遍認(rèn)為,此案的判決結(jié)果或?qū)⒊蔀槿駻I行業(yè)責(zé)任認(rèn)定的“標(biāo)志性判例”,深刻影響未來AI產(chǎn)品的安全標(biāo)準(zhǔn)與立法方向。
目前,AI相關(guān)立法的滯后性,成為此類案件審理的核心難點。法律界人士指出,傳統(tǒng)侵權(quán)責(zé)任認(rèn)定中,“因果關(guān)系”是核心前提,但在AI誘導(dǎo)類案件中,如何證明“AI輸出內(nèi)容與人類暴力行為之間的直接關(guān)聯(lián)”,尚無明確的法律依據(jù)。此前加州高中生自殺案中,OpenAI就以“用戶刻意規(guī)避安全機(jī)制、服務(wù)條款已明確風(fēng)險提示”為由推卸責(zé)任,而此次謀殺訴訟中,原告方雖掌握大量對話證據(jù),但仍需通過復(fù)雜的舉證,證明OpenAI存在“故意或重大過失”。
“這起案件的核心價值,在于首次將AI的責(zé)任從‘用戶自擔(dān)風(fēng)險’推向‘企業(yè)安全義務(wù)’的層面。”美國斯坦福大學(xué)科技法律研究中心主任馬克·萊姆利教授在接受采訪時表示,隨著AI從工具屬性向“準(zhǔn)社交屬性”轉(zhuǎn)變,科技企業(yè)不能再以“算法中立”“用戶自擔(dān)風(fēng)險”為由逃避責(zé)任,“當(dāng)AI成為數(shù)千萬人的情緒寄托,尤其是面對精神脆弱群體時,企業(yè)必須承擔(dān)起‘安全守門人’的義務(wù),這是科技倫理的底線,也應(yīng)成為法律明確的責(zé)任”。
有專家指出,更值得警惕的是,AI行業(yè)“重速度、輕安全”的競爭氛圍,進(jìn)一步加劇了風(fēng)險擴(kuò)散。此次訴訟中披露的“安全測試縮水”事件,并非個例。近年來,隨著AI密集迭代,各大科技公司為搶占市場份額,紛紛壓縮研發(fā)與測試周期,將“更快發(fā)布、更多功能”作為核心目標(biāo),安全機(jī)制的完善往往滯后于產(chǎn)品商業(yè)化進(jìn)程,最終將用戶置于未知的風(fēng)險之中。
編輯:劉海濱