就在幾個月前,IT行業發生了一件震驚全球的大事——ChatGPT 3.5公測版正式發布。從那時起,我們對AI(尤其是生成式AI)的關注、創新和投資達到了空前的熱度。對比前幾次對AI的炒作,這次的不同之處在于生成式AI能讓我們以對話的方式與強大的AI工具進行交互,這種自然語言交互在與“類似人類的”創造力相結合后,能夠生成包括文本、代碼、視頻、音頻在內的全新內容。
VMware首席執行官 Raghu Raghuram
如今的大型語言模型(LLM)讓英語、漢語等母語變成了真正的編程語言。我們在這些模型中輸入的提示詞基本上就是它們用來計算答案的代碼。這是有史以來我們距離實現編程真正普及化最近的一次。
這一切都在告訴人們,我們正處在一次千載難逢的革命浪潮中,這將為軟件開發、客戶支持、銷售、市場等主要的業務部門帶來轉型機遇。新一輪AI創新浪潮的加快將對整個全球經濟產生深遠影響。有了生成式AI,我們可以通過解決不同學習者的差異性來重塑教育、協助醫生做出臨床診斷、幫助客戶做出投資決策等等。這還只是冰山一角,麥肯錫最近的一份報告顯示,生成式AI每年可為全球創造高達7.9萬億美元的經濟價值。
必須解決的三大挑戰
與以往此類大規模創新突破的早期階段一樣,我們在更加廣泛地采用AI方面遇到了一些重大的障礙。要在企業中充分發揮生成式AI的價值和潛力,我們必須共同解決三大核心挑戰。
挑戰一:將天價變成平價
訓練和管理當今的生成式AI模型既復雜又昂貴,需要耗費大量專用算力和高速網絡以及無數內存。目前,AI模型的性能與計算基礎設施的實際比例為1:1,在這種情況下既無法擴展,也不可持續。Andreessen Horowitz最近將訓練ChatGPT這樣的模型描述為“人類迄今為止計算密集度最高的任務之一”。目前,單次訓練的價格從50萬美元到460萬美元不等,而且隨著模型的更新,訓練將成為一項持續性的開支。
看到這些令人瞠目結舌的費用,許多人便得出結論:全球將只會有極少數像ChatGPT這樣的“超大型LLM”。但其實還有另一條出路。在未來,一般企業都將能以可承受的價格構建并運行自己的定制化AI模型。這條路的關鍵在于靈活性和選擇性,盡管大多數首席信息官都計劃使用超大型LLM來處理各種用例,但他們也想要構建大量較小的AI模型,以便針對特定任務進行優化。這些模型通常基于開源軟件。事實上,目前開源AI模型的創新數量之大令人吃驚。可以預見的是,許多企業將把這些開放模型作為許多用例的首選,而不再依賴目前占據主導地位的大型專有LLM。
這些開放的專用模型將充分利用企業獨有的知識財產——領域專用數據。我們可以在專門的基礎設施上經濟且高效地運行這些較小的AI系統,包括更加便宜的GPU(圖形處理單元)以及經過改良的低成本CPU,提供AI工作負載所需要的性能和吞吐量。通過降低成本以及構建兼具靈活性和選擇性的解決方案,我們可以開辟一條對于主流企業來說更加可及的AI創新路徑。
挑戰二:將專業的AI知識變成普通人可以理解的AI知識
如今,AI模型的構建、微調和運行都需要高度專業化的人才,而且這些人才供不應求。首席執行官和首席信息官幾乎都會把它列為首要難題之一。他們敏銳地意識到AI開源軟件領域發展迅速,并希望在最新的創新成果出現時,能夠快速、輕松地遷移過去,而不會被鎖定在任何一個平臺或廠商上。如果只有很小一部分專業技術人員懂得當今AI模型背后的“奧秘”,那么就很難實現這種適應性。
為了填補這一技能缺口,我們需要從根本上簡化構建和訓練AI模型的流程與工具。這便是參考架構的“用武之地”,大部分由于內部人員缺乏相關專業知識而無法從頭開始構建AI解決方案的企業機構可通過它獲得藍圖和可行的途徑。
挑戰三:將風險變成信用
最后或許也是最重要的一點是,我們需要將風險變成信用。當前的AI模型會帶來隱私問題、法律和監管問題、知識產權泄露等巨大的風險。這些風險有可能損害公司聲譽、傷害客戶和員工并對收入產生負面影響。在員工不小心將敏感的內部數據泄露到ChatGPT等工具上后,許多企業都制定了限制員工使用生成式AI工具的政策。同時,當今的生成式AI系統還缺乏基本的信用,它們經常會產生“幻覺”,創造出無意義、無關和/或不準確的新內容。
因此我們行業需要制定一套強有力的道德準則來保障并加強公平性、隱私性、責任追究、他人的知識產權以及訓練數據的透明度。一個龐大且不斷擴張的組織生態正在努力解決AI可解釋性、數據完整性和數據隱私等核心問題。這個開源社區正作為這場運動的中心進行創新,努力幫助企業以安全可控的方式訓練和部署AI模型。
下一輪技術創新浪潮
正如移動應用革命在過去15年中改變了商業以及我們與技術的關系,新一輪AI應用浪潮將大幅提升工作者的生產力并加快全球經濟發展。我們正處于新一輪超級創新周期的初期。我們共同面臨的挑戰是如何讓這項強大的新技術變得更加經濟、可實現和可信。
世界各地AI決策者普遍認為我們需要實現戰略上的平衡:在存在未知因素的情況下,我們必須謹慎行事,尤其是在保密、隱私和專有信息濫用方面。與此同時,我們還必須讓企業能夠快速接受新的AI模型,這樣他們才能以負責和道德的方式參與到下一輪創新浪潮中。