每日經(jīng)濟新聞 2024-07-05 11:54:43
每經(jīng)記者 張韻 每經(jīng)編輯 梁梟
大模型時代,如何構建更好的基礎設施?
7月4日下午,在2024世界人工智能大會期間,無問芯穹聯(lián)合創(chuàng)始人兼CEO夏立雪在“智啟新章·算引未來”AI基礎設施論壇上表示,算力是AI發(fā)展的前哨和基石,GPT-4之后,支撐算法所需要的算力遇到了瓶頸,“Scaling Law”一詞被頻繁討論。在此背景下,國內外巨頭都在加大對算力資源的投入。
活動現(xiàn)場 圖片來源:每經(jīng)記者 張韻 攝
所謂Scaling Law是指模型的性能與計算量、模型參數(shù)量和數(shù)據(jù)大小三者之間存在的關系。當前,谷歌、OpenAI以及國內的大廠和三大云商都在構建萬卡規(guī)模的大集群。夏立雪認為,如今Scaling Law思潮的底層邏輯和能力法思想不謀而合,因此萬卡集群是大模型的兵家必爭之地。
“未來人工智能推演和訓練的算力需求仍然是高速發(fā)展的狀態(tài),不僅推理場景會隨著大模型的落地快速爆發(fā),訓練場景也會支撐模型迭代與模型與應用的結合。”夏立雪進一步表示,與國際上模型層與芯片層“相對集中”的格局相比,中國的模型層與芯片層更加“百花齊放”。
然而,大量的異構芯片也形成了“生態(tài)豎井”,不同硬件生態(tài)系統(tǒng)封閉且互不兼容,給算力的使用方帶來一系列技術挑戰(zhàn)。
對此,夏立雪認為,為適配中國獨特的多模型、多芯片的生態(tài)格局,要找到一個好的合力方式,打破異構生態(tài)豎井,讓異構芯片真正轉化為大算力,幫助大模型進一步發(fā)展。
在夏立雪看來,當前人工智能的發(fā)展狀態(tài),不僅需要有將多元異構的芯片統(tǒng)一納入的底層系統(tǒng)能力,又要在異構算力和多種算法之間做輕易使用的中間層,讓用戶通過統(tǒng)一的編程框架,把不同算力調度起來,整合算力推高了大模型生態(tài)的完整度,其核心任務是持續(xù)降低大模型應用落地成本。
如需轉載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經(jīng)濟新聞APP