當(dāng)?shù)貢r(shí)間3月14日,OpenAI 宣布正式發(fā)布 GPT-4,它擁有圖像識(shí)別功能、高級(jí)推理技能、以及處理25000個(gè)單詞的能力,在單詞處理能力上是 ChatGPT 的八倍,并可以用所有流行的編程語言寫代碼。OpenAI 還表示 GPT-4大大優(yōu)于現(xiàn)有的大型語言模型、以及大多數(shù)下一代(SOTA,State Of The Arts)模型。
【資料圖】
(來源:資料圖)
據(jù)介紹,GPT-4在模擬律師考試中的成績(jī)超出90% 的人類考生,在 SAT(Scholastic Aptitude Test,俗稱“美國(guó)高考”)的閱讀考試中超出93% 的人類考生,在 SAT 數(shù)學(xué)考試中超出89% 的人類考生。
而同樣面對(duì)律師資格考試,GPT-4的上一版 GPT-3.5的得分,僅僅超出10% 左右的人類應(yīng)試者。在現(xiàn)場(chǎng)演示中,GPT-4還生成了關(guān)于復(fù)雜稅務(wù)查詢的答案,盡管無法驗(yàn)證其答案。
在美國(guó),每個(gè)州的律師考試都不一樣,但一般包括選擇題和作文兩部分,涉及合同、刑法、家庭法等知識(shí)。GPT-4參加的律師考試,對(duì)于人類來說即艱苦又漫長(zhǎng),需要兩天才能完成。而 GPT-4卻能在專業(yè)律師考試中脫穎而出。
通過律師考試并不意味著它已準(zhǔn)備好取代真正的律師。畢竟通過司法考試的人大有人在,因此 GPT-4不能成為真正的律師,但它確實(shí)展示了一定的本領(lǐng),也能快速啟動(dòng)一些法律任務(wù)。
(來源:資料圖)
圖像識(shí)別、高級(jí)推理、龐大的單詞掌握能力,是 GPT-4的三大特點(diǎn)。
就圖像識(shí)別功能來說,GPT-4可以分析圖像并提供相關(guān)信息,例如它可以根據(jù)食材照片來推薦食譜,為圖片生成圖像描述和圖注等。但是,出于對(duì)潛在濫用的擔(dān)憂,OpenAI 推遲了圖像描述功能的發(fā)布。也就是說,GPT-4的圖像輸入功能還處于尚未公開的預(yù)覽階段,目前僅能在 OpenAI 的直播中觀看效果。
就高級(jí)推理功能來說,GPT-4能夠針對(duì)3個(gè)日程做出會(huì)議時(shí)間安排,回答存在上下文關(guān)聯(lián)性的復(fù)雜問題。
就詞匯量來說,由于最多可以處理25000個(gè)單詞,因此在理解和生成長(zhǎng)篇內(nèi)容上,GPT-4的能力更強(qiáng)。
GPT-4和上一代就有哪些區(qū)別?
OpenAI 聲稱 GPT-4是其“最先進(jìn)的人工智能系統(tǒng)”,是該公司在擴(kuò)展深度學(xué)習(xí)系統(tǒng)上的最新里程碑,并表示該模型比以往任何時(shí)候都更具有創(chuàng)造性和協(xié)作性,因?yàn)樗梢愿鼫?zhǔn)確地解決復(fù)雜問題。
OpenAI 表示其花費(fèi)了六個(gè)月的時(shí)間,來讓 GPT-4比上一代更安全。該公司通過改進(jìn)監(jiān)控框架,并與醫(yī)學(xué)、地緣政治等敏感領(lǐng)域的專家進(jìn)行合作,以確保 GPT-4所給答案的準(zhǔn)確性和安全性。
GPT-4的參數(shù)量更多,這意味著它將比上一版更接近人類的認(rèn)知表現(xiàn)。 GPT-4還接受了各種多模態(tài)信息的訓(xùn)練,這讓它不僅可以理解和解釋輸入數(shù)據(jù),還可以理解輸入數(shù)據(jù)所在的上下文。 此外,當(dāng)同時(shí)執(zhí)行多任務(wù)時(shí),GPT-4的表現(xiàn)也更加出色。
與舊版本一樣,GPT-4由深度學(xué)習(xí)技術(shù)開發(fā)而來,是在公開可用和已被許可數(shù)據(jù)上進(jìn)行的訓(xùn)練,并使用強(qiáng)化學(xué)習(xí)和人工反饋進(jìn)行微調(diào)。不過,GPT-4是在全新的深度學(xué)習(xí)堆棧上訓(xùn)練的,并由 OpenAI 和微軟 Azure 團(tuán)隊(duì)一起構(gòu)建。毫無疑問的是,GPT-4比上一代模型接受了更多數(shù)據(jù)訓(xùn)練和計(jì)算訓(xùn)練。
如果你使用過 ChatGPT 就會(huì)發(fā)現(xiàn),它的輸入類型是純文本,輸出則是語言文本和代碼。而 GPT-4的多模態(tài),意味著用戶可以輸入不同類型的信息,例如視頻、聲音、圖像和文本。同樣的,具備多模態(tài)能力的 GPT-4可以根據(jù)用戶提供的信息,來生成視頻、音頻、圖片和文本。哪怕你同時(shí)將文本和圖片發(fā)給 GPT-4,它也能根據(jù)這兩種不同類型的信息生出文本。
(來源:資料圖)
OpenAI 表示 GPT-4“離經(jīng)叛道”的可能性要小得多,對(duì)于不被允許的內(nèi)容請(qǐng)求,GPT-4的響應(yīng)可能性降低了82%。在 OpenAI 的內(nèi)部對(duì)抗性真實(shí)性評(píng)估中,GPT-4得分比 GPT-3.5高40%。
當(dāng)任務(wù)復(fù)雜性達(dá)到足夠的閾值時(shí),兩代模型之間的差異就會(huì)出現(xiàn)。整體來看,GPT-4比 GPT-3.5更可靠、更有創(chuàng)意,并且能夠處理更細(xì)微的指令。
百奧幾何公司創(chuàng)始人[1]、加拿大魁北克省人工智能研究中心(Mila)副教授、加拿大高等研究院(CIFAR)人工智能講席教授唐建表示:“GPT-4最重要的是做了 multi-modality training(多模態(tài)訓(xùn)練),之前主要用的是文本和代碼數(shù)據(jù),現(xiàn)在還利用了圖像數(shù)據(jù);另外,GPT-4還用了 ChatGPT 收集到的一些數(shù)據(jù)。”
可以確定的是,GPT-4的穩(wěn)健性已經(jīng)得到保障,而 OpenAI 的主要挑戰(zhàn)是確保它可以準(zhǔn)確地解決所遇到的每個(gè)問題。
此外,OpenAI 表示將把 GPT-4的文本輸入功能加入 ChatGPT 中,由付費(fèi)用戶優(yōu)先使用,并通過等候名單發(fā)布 API。其將允許開發(fā)者把 AI 集成到自己的應(yīng)用程序中,同時(shí) OpenAI 將對(duì)約750個(gè)單詞的提示收取約3美分,對(duì)約750個(gè)單詞的回復(fù)收取6美分。
此外,OpenAI 使用了 Azure Translate 來訓(xùn)練 GPT-4,從而實(shí)現(xiàn)用多語種回答問題。
然而,OpenAI 以“競(jìng)爭(zhēng)”為由,沒有公布有關(guān)具體模型大小、以及訓(xùn)練 GPT-4的硬件詳細(xì)信息。而有了這些信息,對(duì)手們就可以重新創(chuàng)建模型,這也是 OpenAI 不公開的主要原因。
微軟:新 Bing 正在 GPT-4上運(yùn)行
在 OpenAI 推出 GPT-4之后,其合作伙伴兼投資股東微軟也立馬有所回應(yīng)。微軟表示:“新的 Bing 正在 GPT-4上運(yùn)行,這是我們?yōu)樗阉鞫ㄖ频??!?/p>
如果你在過去五周的任何時(shí)間里使用過新 Bing 的預(yù)覽版,那么就已經(jīng)體驗(yàn)過這個(gè)強(qiáng)大模型的早期版本。隨著 OpenAI 對(duì) GPT-4以及更高版本進(jìn)行更新,Bing 也從這些改進(jìn)中受益。所以 Bing 搜索引擎早已經(jīng)用上 GPT-4了,因此用戶可以使用 Bing 編寫文本、回復(fù)消息等。
目前來看,GPT-4將專門開放給 ChatGPT Plus 用戶,每月支付20美元之后可以獲得高級(jí)訪問權(quán)限,總而言之目前暫不支持免費(fèi)使用。
對(duì)于 ChatGPT,美國(guó)伊利諾伊大學(xué)香檳分校計(jì)算機(jī)系教授李博表示,短期來看她覺得 ChatGPT 作為文章寫作、代碼生成的輔助查錯(cuò)工具還不錯(cuò),但是還不能完全依賴 ChatGPT 來做回答和搜索,因?yàn)樗幕卮鸩荒鼙WC正確性。長(zhǎng)期來看,她認(rèn)為 ChatGPT 可以和不同的 AI 模型工具結(jié)合,做更友好的自動(dòng)問答系統(tǒng)、學(xué)習(xí)工具等輔助性工具。此外李博認(rèn)為,如果要長(zhǎng)久發(fā)展并用于重要領(lǐng)域中,ChatGPT 的可信賴性保證、糾錯(cuò)能力等非常重要。
另?yè)?jù)悉,OpenAI 還宣布與語言學(xué)習(xí)應(yīng)用程序 Duolingo 、以及專為視障人士設(shè)計(jì)的應(yīng)用程序 Be My Eyes 的背后公司建立合作,以便為殘障人士提供支持。
美國(guó)非營(yíng)利教育機(jī)構(gòu)可汗學(xué)院,將使用 GPT-4為學(xué)生創(chuàng)建人工智能導(dǎo)師(名為“Khanmigo”);冰島政府將用其幫助維護(hù)冰島本土語言;金融公司摩根士丹利,則使用 GPT-4來管理、搜索和組織其龐大的內(nèi)容庫(kù)。
概括來說在具體應(yīng)用上,GPT-4的高級(jí)推理技能,可以為用戶提供更準(zhǔn)確、更詳細(xì)的回答;鑒于 GPT-4具備更強(qiáng)大的語言能力和圖像識(shí)別能力,因此可以簡(jiǎn)化市場(chǎng)營(yíng)銷、新聞和社交媒體內(nèi)容的創(chuàng)建過程;在教育領(lǐng)域,GPT-4可以通過生成內(nèi)容、以及以類似人類的方式來回答問題,故能在一定程度上幫助學(xué)生和教育工作者。不過,對(duì)于將 GPT-4用于學(xué)術(shù)目的,人們的看法并不一致,因?yàn)閷W(xué)生可能會(huì)在沒有完全理解相關(guān)知識(shí)的情況下依靠它來完成作業(yè),而這和我們接受教育的目的是相悖的。
OpenAI 創(chuàng)始人 Sam Altman 也表示,盡管 GPT-4的未來非常令人期待,但是仍然存在缺陷,所生成的內(nèi)容仍然存在一定的偏見性,也仍然存在一定的“幻覺”,也就是 GPT-4會(huì)創(chuàng)建“不正確但聽起來似是而非”的虛構(gòu)信息。
事實(shí)上,Sam Altman 一直對(duì)于 GPT-4持有相對(duì)務(wù)實(shí)的評(píng)價(jià),在1月份接受關(guān)于 GPT-4的采訪時(shí)他說:“人們的期望越高,失望就越大,”“現(xiàn)在有很多炒作...... 我們沒有實(shí)現(xiàn)真正的 AGI,但這似乎是對(duì)我們的期望?!?/p>
(來源:資料圖)
“狂潮”與隱憂相伴相生
回顧歷史,最早描述 GPT 的論文發(fā)表于2018年,GPT-2于2019年公布、GPT-3則于2020年公布。這些模型基于巨大的文本數(shù)據(jù)集訓(xùn)練而來,其中大部分是從互聯(lián)網(wǎng)上抓取的數(shù)據(jù)。
事實(shí)上,OpenAI 原本推遲了 GPT-4的發(fā)布,因?yàn)閾?dān)心會(huì)被用于惡意目的,例如生成垃圾郵件和錯(cuò)誤信息。但在2022年底,該公司推出了 ChatGPT——一種基于 GPT-3.5的對(duì)話式聊天機(jī)器人,并可以被任何人免費(fèi)試用。
ChatGPT 的推出在科技界引發(fā)了一場(chǎng)狂潮,谷歌也緊隨其后。
在大模型上,對(duì)手們一直在積極回應(yīng) OpenAI。幾乎在同一時(shí)間,OpenAI 的競(jìng)爭(zhēng)對(duì)手——一家名為 Anthropic 的初創(chuàng)公司推出了一款名為 Claude 的聊天機(jī)器人。Anthropic 最近從谷歌籌集了3億美元。與 GPT-4一樣,名為 Claude 的聊天機(jī)器人支持廣泛的文本處理。它可以匯總文檔、生成新文本、回答搜索查詢和編寫代碼,以及執(zhí)行其他任務(wù)。Anthropic 表示其已將這款聊天機(jī)器人提供給許多早期客戶。同時(shí)在視頻生成大模型上,Meta 有 Make-A-Video,谷歌則有 Imagen Video,它們都能根據(jù)用戶輸入來制作視頻。而在北京時(shí)間3月16日,百度也將推出文心一言大模型。
隨著 AI 語言模型的日益突出,對(duì)其潛在濫用的擔(dān)憂也有所增加。批評(píng)者認(rèn)為,OpenAI 等公司正急于利用未經(jīng)測(cè)試、不受監(jiān)管和不可預(yù)測(cè)的技術(shù),這些技術(shù)可能會(huì)欺騙人們、威脅藝術(shù)家的作品并造成現(xiàn)實(shí)世界的傷害。盡管存在這些擔(dān)憂,但 GPT-4和類似的 AI 模型,確實(shí)提供了巨大的經(jīng)濟(jì)潛力。
支持:Ren
排版:羅以
參考資料:
1. https://www.biogeom.com/
https://voonze.com/discover-openais-revolutionary-ai-gpt-4-the-most-advanced-model-yet/
https://www.gizmochina.com/2023/03/14/gpt-4-aces-professional-exams/
https://siliconangle.com/2023/03/14/openai-debuts-gpt-4-rival-anthropic-rolls-new-claude-chatbot/
https://www.theverge.com/2023/3/14/23638033/openai-gpt-4-chatgpt-multimodal-deep-learning
https://openai.com/
關(guān)鍵詞: