當網絡謠言用上AI該如何應對
“0成本、高收益”,隨著AI從最初的“工業級”技術逐漸“飛入尋常百姓家”,一些別有用心者的造謠能力也得到了大幅提升。據報道,某MCN機構通過具有語音交互功能的AI軟件生成虛假文章上傳到多個網絡平臺,最高峰一天能生成4000-7000篇。當網絡謠言用上AI,網民該如何應對?本期“思與辨”就該話題進行討論。
主持人:趙 鑫
嘉賓:陳 兵(南開大學法學院教授、中國新一代人工智能發展戰略研究院特約研究員)
賈開(上海交通大學國際與公共事務學院長聘副教授)
詹國輝(南京財經大學MPA教育中心副主任、副教授)
AI造謠呈現出門檻低、傳播廣、更具迷惑性等特點
主持人:相較于一般網絡謠言,AI造謠有何特點?
陳兵:AI造謠具有更高的自動化程度。它能夠自主生成內容,極大加快了謠言的生成與傳播速度。利用深度學習等技術,AI能夠生成逼真的文本、圖片和視頻,使謠言更難被識別。由于AI的自動化和匿名性,追蹤謠言來源變得更為困難。隨著開源工具和平臺的普及,即使非專業人士也能利用AI技術制造謠言,技術門檻顯著降低。
賈開:第一,網絡化特征,AI造謠的關鍵并不局限于生產謠言內容,還在于其能夠創造出一個謠言傳播的網絡,并因此放大其影響。由于AI能夠同時生成多個社交媒體賬號,而這些賬號之間又相互關聯,因此同時涵蓋了生成與傳播這兩個關鍵環節。第二,混合性特征,有些AI造謠,以真實存在的事件或某種一般性社會情緒為起點,展開虛假內容的生成與傳播,讓人更難以識別。
詹國輝:AI造謠呈現出成本低、門檻低、傳播廣、更具迷惑性、內容多樣且難以追溯等特點,但目前實踐中呈現“多為行政處罰、刑事處罰較少”的特點,在客觀層面上難以形成有力震懾效應。
虛假信息常含有邏輯漏洞、事實錯誤,要保持警惕,多信源比較
主持人:對于AI生成的網絡謠言、虛假信息,我們應該如何辨別?
詹國輝:保持警惕性,關注信息來源。比如,在瀏覽網絡信息時,不輕信未經證實的信息;盡量選擇權威、可信賴的媒體或機構發布的信息。
分析信息的邏輯性。如果發現信息在邏輯上存在明顯漏洞或矛盾,它很可能是經過篡改或杜撰的;對于那些過于夸張、聳人聽聞的標題和內容,要保持懷疑態度,進一步核實其真實性。
陳兵:建議檢查信息來源、核實事實,評估內容。應驗證發布者是否可靠,如是否為權威機構或有信譽的個人。對于接收到的信息,嘗試在多個來源,特別是權威媒體或專業網站上核實。虛假信息常含有邏輯漏洞、事實錯誤或不一致之處,因此需仔細分析內容,檢查其是否合邏輯、無自相矛盾之處。
關注時間標記,警惕情感操縱,防止被深度偽造技術欺騙。虛假信息可能使用過時數據或事件誤導讀者,故需檢查信息的時間標記,確保其時效性。深度偽造技術能生成逼真的假視頻或圖片,面對看似完美的內容,需保持懷疑。
了解AI生成內容的常見特征,如語言風格的一致性、缺乏深度或個性化細節等。同時,需不斷提高媒介素養和批判性思維能力,通過教育和培訓學習識別和抵制虛假信息。
賈開:要形成思辨意識,對所有“反常識”的信息展開質疑和求證。此外,應對網絡信息保持一定的“冗余度”,即不能認為網絡信息就是權威的、真實的、可信的,而是將網絡信息僅作為信息源之一,多從電視臺、報紙、書籍等其他渠道獲得多元信息,在此基礎上形成正確認識。
對那些默許、放任甚至故意利用AI造謠者,要追究法律責任
主持人:AI造謠的門檻和成本更低,批量生產謠言的情況不在少數。您認為應當如何治理這類信息亂象?
賈開:治理AI造謠需要多方協作。第一,從技術源頭上講,應加強AI技術及其應用治理,例如要求AI生成內容標注水印。第二,從傳播媒介上講,社交媒體平臺應主動承擔主體責任,特別是需要扭轉平臺為了吸引流量而放任虛假內容傳播的機制。總體而言,AI造謠及其治理是一個“攻防不對稱”的過程,造謠容易但治理困難,因而我們需要對AI造謠治理具有一定包容度和靈活性,應鼓勵多方協作、敏捷回應。
陳兵:首先,強化技術監管,通過開發和部署高性能工具來識別和過濾AI制造的虛假信息。這些工具包括利用機器學習算法識別異常模式,以及深度偽造檢測技術。政府、教育機構、非政府組織和技術公司等應攜手合作,共享資源與信息,構建聯合治理虛假信息網絡。
完善相關立法。針對AI生成內容,制定并實施明確的法律法規,界定責任歸屬,并對制造與傳播虛假信息的行為進行法律制裁。
強化行業自律,激勵企業合規。鼓勵技術公司、社交媒體平臺和內容發布者建立行業標準和自律機制,主動監控并處理虛假信息。同時,提高AI系統的透明度,讓用戶了解內容生成過程及其背后的算法和數據來源。
詹國輝:平臺應當加大審查力度。一方面,強化賬號注冊核驗、動態巡查、調整流量分成制度等,以便于構建更有效的事前和事中防范措施,切斷謠言傳播源頭。另一方面,網絡平臺須加強內容審核機制,防止AI生成的虛假信息上傳和傳播;對于已上傳的虛假信息,平臺應及時刪除,并公開澄清事實。
應當明確技術開發者、應用者的謠言治理責任。一方面,大模型開發者應通過后臺設置的方式,對通過大模型生成的內容打上水印,告知用戶。另一方面,有必要明確技術應用者及軟件開發者的責任,對那些默許、放任甚至故意利用AI造謠者,要追究法律責任。
引入人工智能技術,以“技術打敗技術”。鼓勵開發者從技術研發、產業應用、制度設計等各方面加強合作,打出AI謠言治理組合拳。