每日經(jīng)濟(jì)新聞 2023-03-15 14:08:34
每經(jīng)編輯 孫志成 畢陸名 蓋源源
3月15日,#GPT4做一個(gè)網(wǎng)站只要十秒#登上熱搜。
當(dāng)?shù)貢r(shí)間周二(3月14日),人工智能研究公司OpenAI公布了其大型語(yǔ)言模型的最新版本——GPT-4。
在官方演示中,GPT-4幾乎就只花了十來(lái)秒的時(shí)間,識(shí)別了手繪網(wǎng)站圖片,并根據(jù)要求實(shí)時(shí)生成了網(wǎng)頁(yè)代碼制作出了幾乎與手繪版一樣的網(wǎng)站。
圖片來(lái)源:視頻截圖
除了普通圖片,GPT-4還能處理更復(fù)雜的圖像信息,包括表格、考試題目截圖、論文截圖、漫畫(huà)等,例如根據(jù)專業(yè)論文直接給出論文摘要和要點(diǎn)。
此外,該公司還表示,GPT-4在許多專業(yè)測(cè)試中表現(xiàn)出超過(guò)絕大多數(shù)人類(lèi)的水平。OpenAI還稱,GPT-4參加了多種基準(zhǔn)考試測(cè)試,包括美國(guó)律師資格考試Uniform Bar Exam、法學(xué)院入學(xué)考試LSAT、“美國(guó)高考”SAT數(shù)學(xué)部分和證據(jù)性閱讀與寫(xiě)作部分的考試,在這些測(cè)試中,它的得分高于88%的應(yīng)試者。
OpenAI表示,在內(nèi)部評(píng)估中,GPT-4產(chǎn)生正確回應(yīng)的可能性要比GPT-3.5高出40%。而且GPT-4是多模態(tài)的,同時(shí)支持文本和圖像輸入功能。OpenAI稱,GPT-4比以前的版本“更大”,這意味著其已經(jīng)在更多的數(shù)據(jù)上進(jìn)行了訓(xùn)練,并且在模型文件中有更多的權(quán)重,這使得它的運(yùn)行成本更高。
據(jù)OpenAI介紹,在某些情況下,GPT-4比之前的GPT-3.5版本有了巨大改進(jìn),新模型將產(chǎn)生更少的錯(cuò)誤答案,更少地偏離談話軌道,更少地談?wù)摻稍掝},甚至在許多標(biāo)準(zhǔn)化測(cè)試中比人類(lèi)表現(xiàn)得更好。
例如,GPT-4在模擬律師資格考試的成績(jī)?cè)诳忌信琶?0%左右,在SAT閱讀考試中排名前7%左右,在SAT數(shù)學(xué)考試中排名前11%左右。
OpenAI表示,已經(jīng)與多家公司合作,要將GPT-4結(jié)合到他們的產(chǎn)品中,包括Duolingo、Stripe和Khan Academy。GPT-4模型也將以API的形式,提供給付費(fèi)版ChatGPT Plus的訂閱用戶。開(kāi)發(fā)者可以注冊(cè),用它打造應(yīng)用。微軟此后表示,新款的必應(yīng)(Bing)搜索引擎將運(yùn)行于GPT-4系統(tǒng)之上。
OpenAI表示,雖然兩個(gè)版本在日常對(duì)話中看起來(lái)很相似,但當(dāng)任務(wù)復(fù)雜到一定程度時(shí),差異就表現(xiàn)出來(lái)了,GPT-4更可靠、更有創(chuàng)造力,能夠處理更微妙的指令。“在我們的內(nèi)部評(píng)估中,它產(chǎn)生正確回應(yīng)的可能性比GPT-3.5高40%?!?/span>
此外,GPT-4還有了一個(gè)質(zhì)的飛躍——可以開(kāi)始處理圖像。經(jīng)常使用ChatGPT的人肯定知道,它只能處理文本,但GPT-4開(kāi)始接受圖像作為輸入介質(zhì)。
據(jù)Open AI演示,用戶提問(wèn):解釋下圖的笑點(diǎn)是什么,并對(duì)圖片中的每部分進(jìn)行描述。GPT-4的回答如下圖所示:
據(jù)封面新聞,不過(guò),?與早期的GPT模型一樣,GPT-4仍然存在一定的局限性。
OpenAI稱,它并不完全可靠,可能會(huì)出現(xiàn)推理錯(cuò)誤?,“GPT-4缺乏對(duì)絕大多數(shù)數(shù)據(jù)切斷后(2021年9月)發(fā)生的事件的了解,并且無(wú)法從中吸取經(jīng)驗(yàn)教訓(xùn)……它有時(shí)會(huì)出現(xiàn)簡(jiǎn)單的推理錯(cuò)誤,它會(huì)輕信用戶明顯的虛假陳述,有時(shí)它會(huì)像人類(lèi)一樣在難題上失敗,例如在它生成的代碼中引入安全漏洞?!?/span>
基于此,OpenAI提醒,用戶在使用語(yǔ)言模型時(shí)應(yīng)格外小心,最好輔助以人工審查、附加上下文、或完全避免在高風(fēng)險(xiǎn)情況下使用它。
由于僅限于Plus訂閱用戶使用,當(dāng)晚,大批新訂用戶涌入,以至于OpenAI的付款系統(tǒng)被擠爆了。
OpenAI透露,摩根士丹利正在使用GPT-4來(lái)組織數(shù)據(jù),而電子支付公司Stripe正在測(cè)試GPT-4是否有助于打擊欺詐。其他客戶還包括語(yǔ)言學(xué)習(xí)公司Duolingo、Khan Academy和冰島政府。
據(jù)不完全統(tǒng)計(jì),截至今年3月初,A股已有近20家上市公司宣布相關(guān)業(yè)務(wù)已經(jīng)接入類(lèi)似ChatGPT技術(shù),或正在研究相關(guān)技術(shù)與數(shù)字人結(jié)合的應(yīng)用場(chǎng)景。國(guó)盛證券在研報(bào)中表示,以GPT系列為代表的大型語(yǔ)言模型(LLM)能教會(huì)機(jī)器以統(tǒng)計(jì)方式理解自然語(yǔ)言,完成此前人類(lèi)進(jìn)行的內(nèi)容讀取和理解。隨著多模態(tài)帶來(lái)的模型全面化,人工智能將向著擁有人類(lèi)解釋能力這一目標(biāo)更進(jìn)一步。
編輯|孫志成?畢陸名?蓋源源
校對(duì)|程鵬
封面圖片自視覺(jué)中國(guó)
每日經(jīng)濟(jì)新聞綜合OpenAI官網(wǎng)、第一財(cái)經(jīng)、封面新聞、界面新聞、科創(chuàng)板日?qǐng)?bào)
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP