- +1
明查×新質談|大模型必須學會“辨真?zhèn)巍保獙W會“守底線”
生成式AI的浪潮席卷之下,AI生成的內容正以前所未有的密度,充斥著公共信息空間。當深度偽造的影像能以假亂真、當篡改的文字可混淆視聽,社會信任體系正面臨一場無聲的考驗。此時,人們自然將目光投向通用大模型,期待這些“智能大腦”能成為辨別真?zhèn)蔚目煽恐帧?/p>
為探尋大模型的“識真”能力邊界,近日,澎湃新聞·明查工作室發(fā)起了一場AI實驗,選取DeepSeek、豆包、Claude Sonnet 4、Grok-4、ChatGPT-5、Gemini 2.5 pro等代表性模型,從文本、圖片、視頻三個維度考察其識別準確性、邏輯推理能力與上下文一致性。
上海人工智能研究院受邀,對實驗結果展開相關技術分析。在這場圍繞AI“魔法能否打敗魔法”的探索中,大模型們展現(xiàn)出了鮮明“個性”與潛藏的共性困境。
本文觀點整理自上海人工智能研究院技術與創(chuàng)新中心的專家對話,參與討論的核心成員包括(以下統(tǒng)一稱為“團隊”):
林圓圓 首席數(shù)字官、技術與創(chuàng)新中心主任
單 珂 技術與創(chuàng)新中心資深算法工程師
朱曉海 技術與創(chuàng)新中心資深算法工程師
能力辨析,大模型“識真”的個性與共性
從技術底層邏輯來看,當前大模型參與“識真”任務,本質上是依托其上下文邏輯處理能力與工具調用機制提供輔助查證支持。團隊指出,這些模型在訓練階段普遍采用通用語料庫,未針對“事實核查”進行專項優(yōu)化——這與廠商的資源投入優(yōu)先級密切相關,目前“識真”能力更多是多任務學習的結果。
這種“非專項訓練”的特性,使得不同模型在推理過程中呈現(xiàn)出顯著的“個性差異”。有的模型會優(yōu)先調用圖像識別工具拆解圖片細節(jié),有的則擅長通過文本語義關聯(lián)追溯信息源頭,還有的傾向于通過邏輯鏈推導驗證內容合理性。團隊解釋,這種差異取決于廠商的技術架構設計(如是否集成專用驗證模塊),也與廠商技術工具、任務理解模板與戰(zhàn)略側重不同有關:“就像面對同一道證明題,有人用幾何圖形推演,有人靠代數(shù)公式計算,最終路徑不同,但都在試圖接近真相?!闭缗炫让鞑榭偨Y的,有的大模型像實驗室檢測人員,有的像偵探。
比如,在“圖片偽造檢測”等已有成熟專業(yè)工具的領域,有些通用大模型的表現(xiàn)易受“外部資源調用”影響。當前,通用大模型已從早期依賴自身概率推斷的階段,進化到能主動調用外部工具的“協(xié)同”階段。在特定測試中表現(xiàn)突出的通用大模型,很可能是其調用的工具與測試場景高度適配,或是訓練數(shù)據(jù)分布恰好與測試用例重合。這并非單純的“模型能力優(yōu)劣”,更多是技術路徑與場景匹配度的結果。
“邏輯一致性”是通用大模型“識真”的另一重考驗。包括“AI幻覺”在內的邏輯偏差問題,往往需要通過思維鏈、思維樹等提示工程手段進行修正或結合知識圖譜進行實體關系驗證,有時甚至需要通過多輪交互反復確認,才能引導模型回歸嚴謹推理。團隊強調,模型的邏輯表現(xiàn)既與用戶輸入的提示策略、模型背后的訓練數(shù)據(jù)相關,也依賴廠商預設的評價指標與優(yōu)化體系,“嚴謹?shù)呐袛嗖荒軆H憑單次交互結果,還需參考模型的核心評價榜單與長期性能表現(xiàn)”。
從技術本質看,通用大模型“識真”能力受三大核心因素制約:一是語義匹配與概率權重計算能力,這直接決定模型對上下文邏輯的判斷與分析一致性;二是信息溯源機制的完善程度;三是工具協(xié)同效率。就像人類查證信息需查閱權威信源,通用大模型也需通過調用外部搜索工具、對接權威數(shù)據(jù)庫獲取可靠信息,再結合自身推理形成判斷。但團隊也指出,這種“推理+溯源”的模式存在系統(tǒng)模糊性,“從消費者視角,我們很難判斷某次識別錯誤是源于模型自身邏輯缺陷,還是信息溯源環(huán)節(jié)的偏差,這正是當前技術透明性不足帶來的認知壁壘?!?/p>
產(chǎn)業(yè)演進,國內大模型的技術演進與產(chǎn)業(yè)選擇
回溯國內通用大模型的發(fā)展脈絡,一條從“文本交互”到“多模態(tài)融合”的路徑清晰可見。2022年底,基于GPT-3.5的ChatGPT發(fā)布,掀起對話模型熱潮。其背后的InstructGPT技術路線引入人類反饋強化學習(RLHF)與獎勵模型(Reward Model),通過排序反饋微調,讓模型從無監(jiān)督的語言概率預測工具,向更貼合人類偏好的方向轉變,這一調整首次讓用戶感受到AI交互體驗的質的飛躍。
比如,在“圖片偽造檢測”等已有成熟專業(yè)工具的領域,有些通用大模型的表現(xiàn)易受“外部資源調用”影響。當前,通用大模型已從早期依賴自身概率推斷的階段,進化到能主動調用外部工具的“協(xié)同”階段。在特定測試中表現(xiàn)突出的通用大模型,很可能是其調用的工具與測試場景高度適配,或是訓練數(shù)據(jù)分布恰好與測試用例重合。這并非單純的“模型能力優(yōu)劣”,更多是技術路徑與場景匹配度的結果。
如今,多模態(tài)已成為行業(yè)公認的主流發(fā)展方向。團隊表示:“純文本的大語言模型的競爭已逐漸降溫,行業(yè)逐步更多聚焦于多模態(tài)能力的建設與優(yōu)化——通過融入視覺、聽覺等信息,讓人機交互更貼近人類自然感知方式。”當前技術路線呈現(xiàn)“雙線并行”特征:以Sora為代表的視頻生成模型專注于動態(tài)視覺內容創(chuàng)作,而多模態(tài)大語言模型(MLLM)則致力于打通文本、圖像、音頻的跨模態(tài)理解與生成。團隊認為,未來這兩條路線將走向融合,最終形成“萬物到萬物”的原生多模態(tài)模型。
視頻理解與生成是當前多模態(tài)技術的難點所在。相較于文本的一維上下文,視頻需處理“圖像幀集合+時序關系”的三維信息,計算量呈指數(shù)級增長。目前主流技術方案是在Transformer架構下,將視頻幀轉化為Token序列,通過上下文關聯(lián)技術實現(xiàn)音視頻與文本Token的對齊,但不同廠商在融合深度與Token處理方式上仍存在差異。
團隊認為,從產(chǎn)業(yè)落地來看,國內大模型廠商的視頻相關能力,在To B領域已具備相關基礎技術能力,只是面向C端的產(chǎn)品因受眾人群覆蓋廣而討論度更高。在“文生視頻”賽道,字節(jié)的即夢、快手的可靈AI等產(chǎn)品早已推出面向創(chuàng)作者的視頻生成工具;本月發(fā)布的文心5.0 Preview作為“全模態(tài)模型”,在中文大模型評測基準(如CMMLU)中表現(xiàn)優(yōu)異,與GPT-4.5-preview、Claude-Opus-4-1、Claude-Sonnet-4-5 等并列全球第二,其在40余項權威基準測試中展現(xiàn)的語言與多模態(tài)理解能力,也印證了國內大模型在核心技術領域的追趕成果。
值得注意的是,盡管事實核查需求日益凸顯,業(yè)界尚未出現(xiàn)專注于“AI識真”的明星企業(yè)或產(chǎn)品。團隊觀察發(fā)現(xiàn),此前相關技術探索多見于學術論文,部分金融機構會組建小型團隊開發(fā)內部核查工具,但受限于場景特異性與商業(yè)價值不確定性,尚未形成規(guī)模化的產(chǎn)業(yè)供給。這也從側面反映出,大模型“識真”能力的商業(yè)化,仍需等待技術成熟度與市場需求的進一步匹配。
責任共識,技術向善的社會責任與治理方向
當通用大模型逐漸滲透進社會運行的毛細血管,其承載的社會責任也越來越大。團隊認為,為保證輸出結果質量,企業(yè)首先需在訓練數(shù)據(jù)源頭筑牢防線。無論是學術研究的應用場景識別,還是相關監(jiān)管機構對謠言信息的判定,都要求模型輸入的原始數(shù)據(jù)具備較高的“清潔度”。正如“Garbage In, Garbage Out”的技術鐵律所示,數(shù)據(jù)質量直接決定模型輸出的價值導向,若任由錯誤、偏見信息進入訓練環(huán)節(jié),后續(xù)再完善的算法也難以避免價值偏差。
這種責任在ToB與ToG領域尤為關鍵。在醫(yī)療、金融風控、政務信息處理等場景中,模型輸出的準確性直接關聯(lián)商業(yè)決策與公共服務質量。企業(yè)需建立更嚴格的數(shù)據(jù)審核機制,甚至引入第三方校驗,尤其在醫(yī)療、司法等高風險場景中,確保訓練數(shù)據(jù)符合行業(yè)規(guī)范與社會倫理。團隊舉例:“此前有新聞報道,部分海外用戶因與AI的不當交互引發(fā)極端后果,這提醒我們,模型不僅需要技術層面的約束,更需要價值觀層面的引導——無論是原始數(shù)據(jù)篩選,還是后續(xù)‘后處理’優(yōu)化,都應向‘有益、安全、公平’的方向傾斜?!眻F隊認為,在價值觀對齊與安全倫理建設方面,國內大模型廠商展現(xiàn)出相對優(yōu)勢,形成更加審慎、負責任的實踐路徑。
從行業(yè)治理視角來看,當前亟需構建“技術+制度”的雙重保障體系。技術層面,可通過思維鏈優(yōu)化、信息溯源機制完善、外部工具協(xié)同等方式,持續(xù)提升通用大模型“識真”能力的穩(wěn)定性;制度層面,則需要政策與法規(guī)的引導——既明確企業(yè)在數(shù)據(jù)治理、模型優(yōu)化中的責任邊界,也為技術創(chuàng)新預留合理空間。團隊建議,可參考現(xiàn)有AI安全治理框架,探索建立大模型“識真”能力的評價標準,推動行業(yè)從“被動應對”轉向“主動預防”。
在這場技術與倫理的平衡術里,沒有單一的完美解。通用大模型的“識真”能力,既是技術演進的自然結果,也是社會需求的倒逼產(chǎn)物。上海人工智能研究院相信,隨著技術的持續(xù)迭代、治理體系的逐步完善,以及企業(yè)社會責任意識的提升,大模型終將在“創(chuàng)造”與“辨別”之間找到平衡,成為守護信息真實性、推動社會信任體系建設的重要力量——而這,正是新質生產(chǎn)力發(fā)展過程中,技術向善的應有之義。
【關于SAIRI新質談】
上海人工智能研究院原創(chuàng)內容專欄。依托研究院“創(chuàng)新策源地、成果放大器、產(chǎn)業(yè)連接器”的平臺優(yōu)勢,聚焦新一代人工智能技術快速演進的新形勢,貫徹落實國家“人工智能+”行動,全景記錄AI技術賦能千行百業(yè)的創(chuàng)新實踐,見證人工智能改變社會文明的變革時代。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司




