2025年的AI爆點正在發生轉移。
自DeepSeek R1上半年引爆行業情緒之后,“純文本+推理”范式下的模型鮮少再現重量級成果。進入下半年,話題重心明顯滑向多模態領域。
Sora 2被封裝成可交付應用、谷歌推出圖像編輯能力更強悍的Nano Banana;AI Agent這端同樣如此,在Manus這樣文本屬性更突出的通用型產品之后,達到相近級別熱度的是主攻視覺創作場景的LoveArt。
在這背后,文本模型的迭代進入一種基線較高、小步抬升的階段,而多模態理解與生成能力在可用性上,向“破圈”層級又近了一步。
一名從事模型訓練的研究人員對界面新聞記者指出,要理解這個現象,首先要認識到文本與多模態兩個方向的研究是并行而非串行。
經過GPT-3、GPT-4、OpenAI o1等重大節點之后,大模型的語言理解能力足以交付C端(用戶)應用,后續優化集中在穩態工程,例如對齊、降本、延遲優化、魯棒性等等,這些能夠進一步優化C端應用體驗和B端(企業)商用價值,但用戶感知不再像GPT-4來臨時那樣有強烈沖擊。
一個典型的例子是DeepSeek-OCR。這是一個在話題性上不足以震撼人心的demo,但有其長期影響力。
DeepSeek-OCR在10月20日推出,定位于探索文本的視覺壓縮能力(光學上下文壓縮,Contexts Optical Compression)。簡單而言,隨著上下文輸入增多,模型計算量以平方級陡增,但通過將長文本轉化為圖像識別,可以大幅壓縮token計算數量。這一思路得到驗證的成果是,它一旦落地到應用端,也是一個前景頗為確切的降本增效方式。
多模態這一側完全不同,其能力曲線仍在還可以被更多人感知的區域內。不過,前述受訪者指出,從并行的思路來看,多模態模型這端還未實現架構層級的突破,更多是足夠的數據累積和訓練技巧提升。
圖源:界面新聞正如他對Sora 2和Nano Banana的判斷,除去OpenAI對多模態生成類產品的初步構想成型,以及谷歌對圖像編輯器現階段用戶需求的把握(例如錨定一個點進行針對性修改),兩款產品在生成質量上并未實現飛躍。
并且,在很大程度上,以“文生圖、文生視頻”為代表的多模態生成領域,其表現優化是以文本模型性能提升為前提。階躍星辰創始人兼CEO姜大昕此前在接受界面新聞記者采訪時指出,理解與生成之間的關系是,理解控制生成、而生成監督理解。
一級市場也在見證這種關注點切換。一名AI投資人對界面新聞記者表示,他的體感是今年行業整體投資事件增多,但投資規模在降低,這是投資重點由模型層向應用層過渡后,后者的市場規模及估值所決定的。
在這之中,今年最顯眼的一筆來自應用層視覺創作領域的LiblibAI。10月23日,LiblibAI宣布完成1.3億美元B輪融資,紅杉中國、CMC資本等參與其中,促成今年國內資本市場AI應用賽道最大的一筆融資。這意味著相較其他賽道,團隊的PMF(product-market-fit)更大程度受到資本認可。
在往后很長一段時間,業界能夠期待的“爆點”或許都將更多來自于多模態領域。
姜大昕一直強調的觀點是,光有語言的智能不夠,多模態是大模型的必經之路。而在這片領域,理解與生成的統一仍是現階段的突破點。
多名受訪者曾對界面新聞記者表示,站在模型訓練角度,視覺模態比文本模態面臨的挑戰更大。單從數據上來看,文本的表征可以在語義上自閉環,但視覺信息的表征需要先與文本對齊,不存在天然自閉環的數據,“可能需要幾次像ChatGPT、強化學習范式這樣的大技術變遷才能解決。”一名受訪者說。
而一派觀點認為,基于更好的多模態模型,世界模型、具身智能、空間智能等才能得到長足發展,行業才能進一步靠近AGI(通用人工智能)。
更現實的考量是,模型決定應用能力上限,在文本模型集中火力降本增效和緩慢提升性能的同時,多模態模型的突破有望給市場帶來更多PMF機會,這將是創業者和投資人眼中更具實際價值的關鍵變化。