以技術防御和法律懲戒治理“AI魔改”
“太可怕了,聲音、口型完全看不出來真假。”演員王勁松近日在微博上的控訴,再次將“AI換臉”濫用亂象推向公眾視野。起因是他發(fā)現(xiàn)自己的影視原始片段被惡意截取后,借助AI深度偽造技術合成了肖像、聲音與口型,使其成為虛假理財廣告的“代言人”。這起事件并非孤例,此前李連杰、姚明等名人也曾被卷入類似的虛假營銷之中。在AI換臉假人“制作易”“監(jiān)管難”的背景下,頻發(fā)的侵權乃至犯罪事件折射出技術迭代與監(jiān)管治理之間的緊迫張力。
回看AI換臉的技術演進脈絡,早在其快速發(fā)展之際,就已埋下了濫用的隱患。2014年,生成對抗網(wǎng)絡(GAN)的提出奠定了圖像生成與篡改的技術基礎;2017年,Deepfake因炮制名人不雅視頻而進入公眾視野,盡管當時效果粗糙、“一眼假”,卻開啟了該技術普及之門。2018年后,F(xiàn)akeApp等開源工具進一步降低使用門檻,而英偉達等企業(yè)對生成技術的優(yōu)化則極大提升了偽造內容的逼真度。進入2022年,大模型技術與開源生態(tài)的爆發(fā)使換臉技術實現(xiàn)質的飛躍:僅需一張照片和幾秒語音,即可生成肉眼難以辨識的“聲形合一”的虛假視頻。雖然技術的開發(fā)往往出于“中立”,但AI與生俱來的工具屬性和開源帶來的私人性,從一開始就很難避免其被濫用的風險。也正是由此,AI換臉在影視制作、虛擬主播等正面用途中得到廣泛應用的同時,也在快速淪為詐騙、仿冒營銷的工具,其技術雙面性愈發(fā)突出。
當前,AI生成與檢測技術的對抗正陷入“螺旋升級”。一方面,AI“魔改”視頻的制作門檻持續(xù)降低,電商平臺上“1分鐘無痕對口型”的服務報價僅數(shù)百元,已形成成熟的灰色產業(yè)鏈。另一方面,檢測技術雖在迭代,仍存在顯著短板。研究顯示,在復雜場景下,現(xiàn)有AI檢測器的準確率可能從90%驟降至60%,不法分子還可通過本地運行開源模型、修改原始素材等方式規(guī)避平臺審查。當當事人的家人都無法分辨造假視頻真?zhèn)螘r,技術濫用對社會信任的侵蝕已觸目驚心。
平臺治理亦陷入“防不勝防”的困境,暴露出行業(yè)協(xié)同機制的缺失。盡管部分頭部平臺已建立名人肖像保護庫,累計處置數(shù)萬條侵權內容,但治理難度依然巨大。其核心癥結在于技術濫用的隱蔽性與跨平臺傳播能力——侵權視頻可在多個平臺間交叉擴散,但AI生成內容缺乏統(tǒng)一的識別標準,同時小型造假工具與開源模型則游離于監(jiān)管體系之外。在此背景下,單個平臺的“單打獨斗”難以奏效。只有打通行業(yè)壁壘,推動檢測技術與侵權特征庫的共建共享,建立跨平臺的協(xié)同治理機制,將先進經驗轉化為行業(yè)通用標準,方能在技術攻防中占據(jù)主動,從生態(tài)層面壓縮濫用空間。
另一邊,強化追責應成為遏制亂象的關鍵突破口。此次事件中,涉事CRC、RWA等項目早已被多地監(jiān)管部門警示涉嫌非法集資,卻仍借助AI換臉技術持續(xù)招搖撞騙。事實上,偽造代言廣告等侵權行為本身往往只是冰山一角,這類“見不得光”的糾紛背后可能隱藏著非法集資、詐騙等更為嚴重的違法犯罪活動。類似事件不僅是有關部門進行“侵權追責”的線索,更是深挖源頭犯罪的良機。應建立跨部門間協(xié)同機制,將AI仿冒營銷視為深挖犯罪鏈條的重要線索,順藤摸瓜,從虛假廣告追溯到項目方資質,從侵權行為倒查資金流向,對造假者、推廣平臺及背后涉嫌非法集資等犯罪的項目方實施全鏈條打擊。通過將民事侵權追責與刑事犯罪偵查相結合,不僅可以對類似行為形成有效震懾,或許還能有大案要案的“意外收獲”。
所謂“技術無善惡”,不代表其發(fā)展就能逾越制度的邊界,就可以踐踏他人的權益。王勁松“被AI”事件再次提醒我們,技術創(chuàng)新必須與風險防控同頻共振。既要加速AI檢測技術的研發(fā)應用,推動行業(yè)協(xié)同治理形成合力,更要健全法律追責體系。唯有技術防御和法治懲戒雙輪驅動,匯聚社會多主體共治合力,才能讓AI技術回歸服務社會的本質,既釋放創(chuàng)新活力,又守護人格權益與社會信任的底線。(北京語言大學國際政治與傳播學院 馬越然)
編輯:遲明緒




京公網(wǎng)安備 11010502000576號