春節(jié)將至,中國人工智能(AI)公司密集發(fā)放節(jié)日大禮包,展現(xiàn)出2025年大模型競爭的新動向。僅1月20日一天就有4家公司推出新品:深度求索公司DeepSeek發(fā)布了DeepSeek-R1模型,月之暗面公司Kimi推出了k1.5多模態(tài)思考模型,兩家公司新模型性能都對標(biāo)OpenAI o1正式版。MiniMax海螺上線語音功能,字節(jié)豆包上線實(shí)時語音大模型,很明顯是在對標(biāo)OpenAI的實(shí)時語音功能。
自2022年11月美國人工智能公司OpenAI發(fā)布GPT-3.0引燃全球AI大模型熱潮以來,全球科技廠商紛紛入局,密集上線大模型。
OpenAI的火爆來自“大力出奇跡”路線,以規(guī)模作為大模型的制勝法寶。但這也讓AI大模型的發(fā)展陷入了一個怪圈:為追求更高的性能,模型體積不斷膨脹,參數(shù)數(shù)量呈現(xiàn)指數(shù)級增長。這種“軍備競賽”型開發(fā)模式,帶來了驚人的能源消耗和訓(xùn)練成本,難以為繼。受大模型訓(xùn)練的高昂成本拖累,OpenAI在2024年的虧損額可能達(dá)到50億美元,業(yè)內(nèi)專家預(yù)計(jì)到2026年其虧損將進(jìn)一步攀升至140億美元。
而中國公司運(yùn)用剪枝、量化、知識蒸餾等一系列創(chuàng)新技術(shù),開啟了大模型“瘦身”新風(fēng)尚,走出一條“小而強(qiáng)”的新路徑。以DeepSeek為例,R1在多個基準(zhǔn)測試中與美國OpenAI公司的o1持平,但成本僅為o1的三十分之一。模型性能的追趕速度也很快,OpenAI推出正式版o1模型是在2024年12月,僅僅1個多月后,DeepSeek就發(fā)布了性能相當(dāng)?shù)腞1模型。
DeepSeek的成功證明,大模型創(chuàng)新不一定要依賴最先進(jìn)的硬件,而是可以通過聰明的工程設(shè)計(jì)和高效的訓(xùn)練方法實(shí)現(xiàn)。這種技術(shù)突破不僅降低了AI大模型的硬件門檻和能源消耗,更重要的是為AI技術(shù)普惠化鋪平了道路。因?yàn)楦〉哪P鸵馕吨偷牟渴鸪杀、更快的響?yīng)速度和更廣泛的應(yīng)用場景。在醫(yī)療、教育、制造等諸多領(lǐng)域,輕量級AI模型都將帶來革命性的轉(zhuǎn)變。
從信息技術(shù)發(fā)展歷史看,“小型化”進(jìn)程也是大勢所趨。計(jì)算機(jī)曾是占據(jù)整個房間的大型機(jī),后來發(fā)展成可作為桌面設(shè)備的電腦,又進(jìn)化為便攜式筆記本。手機(jī)從古早的磚頭式“大哥大”,改進(jìn)為小巧的功能機(jī),又進(jìn)化至如今的智能終端。DeepSeek的成果,標(biāo)志著AI大模型正在經(jīng)歷類似的進(jìn)化過程。這種“小而強(qiáng)”的AI模型,將推動人工智能從實(shí)驗(yàn)室走向千家萬戶,從云端走向邊緣端。
模型并非越大越好,而是越精越妙。大模型“瘦身”促進(jìn)了AI技術(shù)的創(chuàng)新和突破。為了在減少參數(shù)的同時保持甚至提升模型性能,研究人員不得不深入挖掘模型架構(gòu)的優(yōu)化空間,探索更高效的算法和訓(xùn)練方法。這一過程推動了人工智能基礎(chǔ)理論的發(fā)展,也為相關(guān)技術(shù)的跨領(lǐng)域應(yīng)用開創(chuàng)了新局面。
當(dāng)然,大模型“瘦身”沒到終點(diǎn)站,仍面臨諸多挑戰(zhàn)。如何在保證模型性能的前提下實(shí)現(xiàn)最大程度的“瘦身”,是當(dāng)前需要解決的關(guān)鍵問題。同時,“瘦身”后的模型如何在不同場景下保證適應(yīng)性和穩(wěn)定性,也需要進(jìn)一步驗(yàn)證和優(yōu)化。
在快節(jié)奏的商業(yè)環(huán)境中,高效、靈活、低成本的解決方案更具競爭力。追求極致性價比,一向是中國公司的強(qiáng)項(xiàng)。在諸多中國公司的競爭中,AI大模型正從曾經(jīng)的“龐然大物”逐漸蛻變?yōu)檩p盈高效的“智慧精靈”,在保持強(qiáng)大認(rèn)知能力的同時,大大降低了計(jì)算資源的消耗。中國公司也從模仿者和追隨者,逐漸轉(zhuǎn)變?yōu)閯?chuàng)新者和引領(lǐng)者。展望未來,大模型“瘦身”后必將走向更寬廣的坦途。 (本文來源:經(jīng)濟(jì)日報 作者:佘惠敏)