“下面一起聊碰到AI的東西,放心,我來跟他是放心碰撞的,不是懟?!?/p>
2024年1月21日,360創(chuàng)始人周鴻祎罕見現(xiàn)身獵戶星空的大模型發(fā)布會,與獵戶星空董事長傅盛,進行了一場隔了16年的同臺對談。
周鴻祎與傅盛同臺對談。圖源:直播截圖
早年間,傅盛曾是周鴻祎在360的得力干將,其帶領團隊探索的業(yè)務360安全衛(wèi)士,在2006年的日均安裝量已經(jīng)達到20萬。但由于發(fā)展理念不合,2008年10月,傅盛辭職離開360,并與雷軍合作創(chuàng)辦競品公司金山網(wǎng)絡。2011年,360以竊取機密資料為由,與傅盛對簿公堂。
而讓雙方在公開場合一笑泯恩仇的,則是被周鴻祎視為“這輩子經(jīng)歷PC、互聯(lián)網(wǎng)、移動互聯(lián)網(wǎng)之后第四次巨大的機會”的AI大模型。
在圓桌對談中,傅盛和周鴻祎兩人對AI模型層和應用層的創(chuàng)業(yè),有以下觀點:
AI不是操作系統(tǒng),而是更像當年人人配備的PC,難以被兩三家企業(yè)壟斷;
大模型一定會兩級分化:一條路是在云端越做越大,另一條路是把大模型做?。?/p>
訓千億大模型是大公司的活,資金資本消耗太大,但從應用出發(fā)去找好的場景把AI技術(shù)用好,是很好的機會;
ToC產(chǎn)品無法用定制去解決,核心在于讓每個人感受到獨特的價值。今天的大模型做ToC,除了套皮之外想做深不容易;
AI對原有業(yè)務的改進更適合有一定規(guī)模的公司,AI原生業(yè)務更適合早期的公司;公司要重視組合式的創(chuàng)新,把非AI的部分做到能讓AI做起來;
因為行業(yè)套件還不成熟,真正ToC的AI原生應用還需要一兩年。
傅盛提到,未來千億參數(shù)規(guī)模的模型將半凋零,百億規(guī)模的模型必將綻放。而獵戶星空在模型的布局上,走的也是“把大模型做小”的路子。
此次獵戶星空發(fā)布的是一款140億參數(shù)的中型規(guī)模的大模型Orion-14B,在一張消費級的千元顯卡上就能部署,針對的是企業(yè)的專業(yè)場景。
Orion-14B在NVIDIA RTX 3060顯卡上推理速度可達31 Token/s (約每秒50漢字)。圖源:獵戶星空
與眾多國內(nèi)外200億參數(shù)規(guī)模的模型相比,Orion-14B在MMLU、C-Eval、BBH等中英主流測試集上拿下SOTA(最佳模型),并且在700億參數(shù)以下基座模型中,在中文數(shù)據(jù)集的表現(xiàn)上總分位列榜首。
基于第三方機構(gòu)OpenCompass獨立評測結(jié)果。圖源:獵戶星空
基于第三方機構(gòu)OpenCompass獨立評測結(jié)果。圖源:獵戶星空
對于榜單上的好成績,獵戶星空也表示,Orion-14B沒有提前刷基準測試里面的真題,成績絕對真實。
此外,Orion-14B單次可推理320K的上下文,相當于一次性看完約50頁的小說(45萬字)。而在針對大模型“記憶力”的權(quán)威測試“大海撈針(Needle in A Haystack)”中,Orion-14B對200k Token的召回率是100%。
圖源:獵戶星空
傅盛并不避諱承認Orion-14B的訓練,基于的是8個開源的MoE(專家混合模型)。目前,Orion-14B也已經(jīng)在GitHub、Hugging Face、ModelScope等平臺開源。
同時,傅盛指出,ChatGPT只從公開出版物上獲取數(shù)據(jù),后果是無法深入解決企業(yè)問題。
落地到具體的企業(yè)應用場景,模型要解決的問題,一是幻覺和錯誤,二是缺乏自主性。
針對幻覺和錯誤問題,獵戶星空推出了RAG能力微調(diào)模型Orion-14B-RAG。所謂的RAG(檢索增強生成),能夠從數(shù)據(jù)源中檢索信息來復制大模型生成答案。Orion-14B-RAG對知識邊界控制、問答對生成、幻覺控制、結(jié)構(gòu)化數(shù)據(jù)提取等能力,進行了專項微調(diào),讓其能更好配合企業(yè)整合自身知識庫,構(gòu)建定制化的應用。
針對構(gòu)建自主性,獵戶星空推出了輔助企業(yè)構(gòu)建AI Agent的插件能力微調(diào)模型Orion-14B-Plugin。該插件能夠通過Orion-14B-RAG更好理解用戶需求,并調(diào)用相關的工具解決問題。
圖源:獵戶星空
附:
Orion-14B技術(shù)報告 https://github.com/OrionStarAI/Orion/blob/master/doc/Orion14B_v3.pdf
歡迎交流