最好看2019中文在线播放电影-最好看的2018中文在线观看-最好看的日本字幕mv视频大全-最近免费观看的好看电影

AI“中毒”,技術能兜底嗎?

分享到:
分享到:

AI“中毒”,技術能兜底嗎?

2026年03月17日 14:21 來源:中新經緯
大字體
小字體
分享到:

  中新經緯3月17日電 (宋亞芬)你從AI大模型中查詢到的“權威答案”很可能已經被商業灰產定向污染。

  據央視3·15晚會報道,一款叫GEO的軟件,宣稱可通過給“AI投毒”“讓AI聽話”,讓客戶產品在AI回答中排名靠前,成為“推薦爆款”。

  語料污染,AI不可承受之重

  這款軟件的操作邏輯并不復雜:通過持續大量投喂與客戶相關的推廣軟文,讓AI平臺去刷錄、輸入、抓取。由于AI大模型的核心機制是機器學習,這種定向投喂會直接影響模型的輸出結果。

  在專家眼中,這種投機取巧無異于在動搖AI的根基。國研新經濟研究院創始院長朱克力對中新經緯表示,這種行為會從底層動搖AI大模型的可信度根基,對其技術價值與社會應用價值造成多重不可逆的傷害。

  “AI大模型的核心競爭力在于基于海量真實、多元的語料進行學習與推理,其回答的客觀性、準確性是立足之本,而此類定向的語料污染行為,會讓模型的信息庫中混入大量虛假、低質、同質化的商業信息,打破模型語料的真實平衡,導致模型在推理過程中難以分辨信息的真偽與價值,進而輸出帶有明顯商業偏向的非客觀內容。”朱克力補充說。

  更值得警惕的是,這種傷害不會止步于單次回答。它會隨著信息的反復輸入形成傳導,一層層累積,逐步透支用戶對AI的信任。

  朱克力表示,“一旦用戶多次發現AI模型的‘標準答案’實則是商業廣告,會逐步喪失對AI模型的信任,進而影響AI大模型在資訊查詢、決策輔助、知識普及等諸多場景的應用落地。”

  若語料污染行為形成規模,還會引發行業的不良跟風。朱克力強調,“大量虛假信息涌入AI訓練與推理環節,將導致不同平臺的AI模型均出現回答失真問題,最終讓整個AI大模型產業陷入可信度危機。”

  AI“中毒”怎么辦?

  事實上,AI數據污染問題并非伴隨大模型而產生,但大模型的興起顯著放大了其規模、影響與復雜性。為此,《生成式人工智能服務管理暫行辦法》和新版《數據安全法》已經將AI訓練數據納入監管。

  在工信部信息通信經濟專家委員會委員盤和林看來,AI大模型的可信度存在問題,一方面是因為互聯網上存在虛假信息,另一方面是因為AI本身也存在幻覺,會自己編造數據。

  不過,這種數據污染,在技術層面并非無計可施。

  朱克力指出,現有技術體系已具備相應的反制手段,且可通過技術迭代與體系化設計,建立起全流程的防御機制,有效識別和阻斷此類不正當行為。

  朱克力進一步分析,可通過優化AI大模型的語料篩選與權重計算算法,建立多維度的語料價值評估體系,從內容真實性、原創性、信息密度、傳播場景等多個維度對語料進行動態評分,對批量出現的同質化、低價值、強商業屬性的軟文內容進行降權甚至剔除,從源頭減少虛假語料對模型的干擾。

  “還可引入實時的語料溯源與異常監測技術,對短時間內集中出現的、帶有相同關鍵詞與商業信息的內容進行溯源追蹤,”朱克力強調,通過識別其發布主體與傳播路徑,可對異常發布行為進行實時預警。

  此外,避免單一信息源的定向誤導也很重要。朱克力建議可通過強化AI模型的推理校驗能力,讓模型在生成回答時,對核心信息進行多源交叉驗證。

  盤和林則認為,技術上反制是不夠的。“我們要治理的,可能不是GEO,而是整個中文互聯網的信息真實性問題,這是個大的生態型問題,只要這些互聯網的虛假信息還存在,那么AI還是會不斷抓取有害信息。”

  在盤和林看來,根本解決之道還是在于治理互聯網信息環境,建立權威信息發布渠道。比如,在美國,FDA(美國食品藥品監督管理局)會對保健品的很多問題發布報告,若設定AI優先從FDA去獲取這類科學數據,就會形成客觀的觀點。

  朱克力建議構建“源頭篩查—過程監測—結果校驗—閉環治理”的全鏈條體系。“可讓防御機制與違規行為的技術迭代同頻,從根本上遏制語料污染行為,守護AI大模型的內容真實性與可信度。”(中新經緯APP)

  中新經緯版權所有,未經授權,不得轉載或以其他方式使用。

【編輯:劉陽禾】
發表評論 文明上網理性發言,請遵守新聞評論服務協議
本網站所刊載信息,不代表中新社和中新網觀點。 刊用本網站稿件,務經書面授權。
未經授權禁止轉載、摘編、復制及建立鏡像,違者將依法追究法律責任。
Copyright ©1999-2026 chinanews.com. All Rights Reserved

評論

頂部