如何從大語(yǔ)言模型走向通用人工智能,這條路線(xiàn)可能帶來(lái)哪些影響?
2024年1月16日,中國科學(xué)院院士、清華大學(xué)人工智能研究院院長(cháng)、清華大學(xué)計算機系教授張鈸在“智譜AI”2024年度技術(shù)開(kāi)放日上,帶來(lái)了《從大語(yǔ)言模型到通用人工智能》的主題分享。
怎么來(lái)理解現在爆火的生成式的模型?
張鈸院士表示,必須從生成式大模型具有的四個(gè)特征來(lái)分析它,這四個(gè)特征是“三大一缺點(diǎn)”。
就是強大的生成能力,強大的遷移或者推廣能力以及強大的交互能力,最后一個(gè)大缺點(diǎn),幻覺(jué)。
具體來(lái)說(shuō):
1.強大的生成能力:指的是語(yǔ)言模型能夠在開(kāi)放領(lǐng)域生成多樣化、連貫且類(lèi)似人類(lèi)的文本。這種能力超出了人們的預期,被認為是模型達到一定規模后出現的“涌現”現象。
2.強大的遷移能力:模型能夠在給定少量樣本的情況下,將知識遷移到不同領(lǐng)域,完成新的任務(wù)。這種能力同樣在模型規模達到一定程度后才會(huì )出現。
3.強大的交互能力:模型能夠與人類(lèi)進(jìn)行自然語(yǔ)言對話(huà),這在過(guò)去是難以實(shí)現的。這種對話(huà)不受領(lǐng)域限制,使得人機交互更加流暢。
4.幻覺(jué):這是模型的一個(gè)主要缺點(diǎn),指的是模型可能會(huì )生成看似合理但實(shí)際上并不真實(shí)或有意義的輸出。
張鈸院士解釋了大語(yǔ)言模型如何通過(guò)三個(gè)關(guān)鍵技術(shù)實(shí)現這些能力:
· 巨大的人工神經(jīng)網(wǎng)絡(luò ):使用深度和寬度都非常大的網(wǎng)絡(luò )結構,如GPT-3和GPT-4 Turbo,這些網(wǎng)絡(luò )能夠處理大量的文本數據。
· 巨大的訓練文本:使用大量的人類(lèi)知識文本進(jìn)行訓練,這些文本數據量達到了數十TB。
· Next token prediction:通過(guò)自監督學(xué)習的方法,模型能夠預測下一個(gè)詞,從而生成連貫的文本。
通過(guò)這些技術(shù),模型構建了一個(gè)連續的語(yǔ)義向量空間,使得輸入的文本序列能夠轉換為向量,并在該空間中進(jìn)行處理,最終生成輸出文本。
當然,想要實(shí)現高質(zhì)量的文本生成和人機對話(huà),離不開(kāi)預訓練、推理和對齊。
這是向通用人工智能邁出的第一步,取得了兩個(gè)重大突破:
· 能夠生成人類(lèi)水平的文本,"說(shuō)人話(huà)"。
· 實(shí)現了人機自然語(yǔ)言流暢對話(huà)。在ChatGPT中,我們可以用純自然語(yǔ)言與機器對話(huà),這在過(guò)去是難以實(shí)現的,而且這種對話(huà)不受領(lǐng)域限制。
這兩個(gè)突破將推動(dòng)人工智能技術(shù)獲得進(jìn)一步發(fā)展。
邁向通用人工智能第二步工作,就是在GPT-4的基礎上構造一個(gè)智能體,使其能夠與數字世界交互。
為此必須實(shí)現兩點(diǎn):一是使其具有多模態(tài)處理能力,把感知能力加入進(jìn)來(lái)。通過(guò)多模態(tài)生成,可以完成感知能力的補充,完成閉環(huán)。
二是增加其交互能力。過(guò)去第一步走的時(shí)候,主要用了語(yǔ)言模型跟人類(lèi)交互的能力,而大模型還可以與環(huán)境尤其是數字環(huán)境進(jìn)行交互。通過(guò)這兩點(diǎn)的組合,可以實(shí)現第二步目標。也就是說(shuō)機器可以與外部工具和環(huán)境結合,發(fā)揮問(wèn)題求解能力。
它不僅可以回答問(wèn)題,還可以幫助解決問(wèn)題,解釋和執行復雜指令,制定計劃來(lái)達成預定目標。與數字環(huán)境結合后,它可以通過(guò)反饋學(xué)習,判斷自己的行動(dòng)正確或錯誤。
第三步發(fā)展非常重要,目前GPT-4最多只能與數字世界交互,通用人工智能最終必須使其能與物理世界交互。這就缺少了一個(gè)關(guān)鍵環(huán)節——機器人。要與世界溝通和采取行動(dòng),就需要機器人。因此,“具身智能”(Embodied AI)的提出很關(guān)鍵,它可以構建一個(gè)完整的智能體,既有感知能力,又有像人類(lèi)一樣的思考和行動(dòng)能力。這將形成一個(gè)完整的智能體。
如果實(shí)現了這一步,就可能構建出一個(gè)擁有感知、思考和行動(dòng)能力的通用人工智能體,實(shí)現從專(zhuān)用走向通用的突破。
這個(gè)大模型發(fā)展下去,對我們產(chǎn)業(yè),對我們職業(yè)會(huì )產(chǎn)生什么影響?
張鈸院士認為,大語(yǔ)言模型的發(fā)展必將對產(chǎn)業(yè)和職業(yè)產(chǎn)生深遠影響。
一方面,它將提升效率和質(zhì)量,對多數行業(yè)起到互補作用;另一方面,也會(huì )替代部分工作。但大語(yǔ)言模型本身存在的缺陷決定了它不可能完全取代人類(lèi)??傮w來(lái)看,大語(yǔ)言模型與人類(lèi)還是互補的關(guān)系。而人工智能這樣發(fā)展下去,最主要的一定會(huì )推動(dòng)經(jīng)濟的發(fā)展。
為把握機遇,張鈸院士呼吁要緊密結合科研、技術(shù)創(chuàng )新和產(chǎn)業(yè)發(fā)展,開(kāi)發(fā)通用的人工智能軟硬件,推動(dòng)產(chǎn)業(yè)進(jìn)步。盡管道路艱難,但大語(yǔ)言模型已經(jīng)為通用人工智能開(kāi)辟出一條道路,其影響還會(huì )持續顯現。
以下為張鈸院士演講內容(內容有調整)
大家好,這個(gè)會(huì )議主要圍繞大模型,我想所有的聽(tīng)眾呢,都是沖著(zhù)大模型來(lái)的,因此我今天就講大模型的內容。
講三個(gè)問(wèn)題。
一個(gè)我們如何從這個(gè)大語(yǔ)言模型走向通用人工智能,這條路應該怎么走,我們會(huì )走到什么地方?
第二個(gè),這個(gè)大模型發(fā)展下去,對我們產(chǎn)業(yè),對我們職業(yè)會(huì )產(chǎn)生什么影響?
最后,講一點(diǎn)有關(guān)人工智能產(chǎn)業(yè)的一點(diǎn)思考。
大家知道,我們人工神經(jīng)網(wǎng)絡(luò )是1947年開(kāi)始的,當時(shí)主要作為鑒別器(分類(lèi))使用,也想把它作為生成器來(lái)生成,結果遇到很大的困難。
這個(gè)問(wèn)題到2014年干出來(lái)以后,才得到一定的解決,特別是2017年Transformer轉換器提出來(lái)以后,就像打開(kāi)這個(gè)閘門(mén),生成式的人工智能迅猛地發(fā)展。
我們?yōu)槭裁匆闵墒降娜斯ぶ悄?,大家常常引用Richard Feynman 說(shuō)的一句話(huà),“如果我們不能創(chuàng )造它,我們就不可能理解它?!?(What I cannot create,I do not understanding.)
所以我們通過(guò)生成式的人工智能,就是要打開(kāi)理解這個(gè)世界的大門(mén)。
我們怎么來(lái)理解生成式的模型?我們必須從生成式大模型具有的四個(gè)特征來(lái)分析它,這四個(gè)特征是“三大一缺點(diǎn)”?!叭蟆笔裁创竽??
就是強大的生成能力,強大的遷移或者推廣能力以及強大的交互能力,最后一個(gè)大缺點(diǎn),幻覺(jué)。我想從這個(gè)三點(diǎn)出發(fā),我們才能夠真正地認識大模型。
所謂的強大的生成能力,我們現在先說(shuō)語(yǔ)言模型,就是強大的語(yǔ)言生成能力。這個(gè)強大主要體現在它能夠在開(kāi)領(lǐng)域生成多樣性連貫的類(lèi)似人類(lèi)的文本。也就是說(shuō),它能夠在開(kāi)放的范圍內,流暢地產(chǎn)生出多樣化且邏輯自洽的語(yǔ)言表達。
這一點(diǎn)是大大出乎大家意料之外的,大模型沒(méi)有達到一定的程度,不可能出現這個(gè)現象,我們目前還把這個(gè)現象說(shuō)成是涌現。
第二個(gè)是遷移能力,就是只要給它少量樣本,它就能將知識遷移到不同的領(lǐng)域,這也大大出乎了人們的意料。為什么只給它幾個(gè)樣本,它就能完成新的任務(wù)呢?這種能力也只有在模型達到一定規模后才會(huì )出現。
我們想一想,利用這兩種能力發(fā)展出來(lái)的ChatGPT,它是通過(guò)預訓練、推理和對齊這三個(gè)步驟實(shí)現的。那么它是如何做到這一點(diǎn)的呢?
主要是三個(gè)原因。
第一個(gè)原因,我們用了一個(gè)巨大的人工神經(jīng)網(wǎng)絡(luò )來(lái)完成這個(gè)任務(wù)。這個(gè)巨大的神經(jīng)網(wǎng)絡(luò ),我們把它叫做轉換器。這個(gè)巨大大到什么程度呢?
四個(gè)檔。一個(gè)非常之深,深度達到了96層。第二個(gè)非常之寬,GPT-3 寬度達到了2048個(gè)tokens?,F在GPT-4 Turbo,達到128000個(gè)tokens。換句話(huà)講,300多頁(yè)的文本可以同時(shí)輸入,這是它的寬度。
GPT3.5 的規模達到了1750億個(gè)參數,它的硬件需要285000個(gè)CPU,1萬(wàn)個(gè)GPU來(lái)完成,這是我們利用的一個(gè)技術(shù),巨大的神經(jīng)網(wǎng)絡(luò )。
第二個(gè)技術(shù)就是巨大的訓練文本,我這里特別講的用Text不用數據,美國人最早用的是用巨大的數據,現在美國人也改口了,把它說(shuō)成是巨大的文本數據,Text Data。
請大家注意,我這里講的text肯定不是指這個(gè)數據,因為text大量描述的是人類(lèi)的知識,那么用得多少呢?這個(gè)大家知道了,現在已經(jīng)達到了45TB,Google已經(jīng)達到50TB是吧。
第三個(gè)使用的是Next token prediction,自監督學(xué)習。
靠這三項技術(shù),我們做到了剛才講的三大能力。怎么做到的?
實(shí)際上,它構造了一個(gè)連續向量的語(yǔ)義空間,這個(gè)連續向量的語(yǔ)義空間怎么構造呢?就是用了LLM加上AI alignment來(lái)構造,這樣就使得我們用一串的10串的輸入,變成token,最后變成向量,在連續向量空間進(jìn)行處理,又輸出了一大堆詞串。
正是借助這三項技術(shù),我們實(shí)現了前面提到的三大語(yǔ)言生成能力。
具體來(lái)說(shuō),是通過(guò)LLM(大語(yǔ)言模型)結合AI alignment構造了一個(gè)連續的語(yǔ)義向量空間。這樣就使得我們用1串,10串的輸入變成token,最后變成向量,在連續向量空間進(jìn)行處理,又輸出了一大堆詞串。
如果大家了解LLM(大語(yǔ)言模型),就會(huì )知道它通過(guò)預訓練生成了K和V,這是它的記憶單元。然后在推理階段,我們將問(wèn)題Q輸入模型,Q與K、V進(jìn)行計算,輸出對下一個(gè)詞的預測。這就是LLM的整個(gè)工作流程。這種過(guò)程完全改變了我們處理語(yǔ)言的方式,使機器能夠像人類(lèi)一樣進(jìn)行思考。
當然,還需要最后一步對齊技術(shù)。經(jīng)過(guò)對齊后,可以大幅降低錯誤率。因為L(cháng)LM本身只能生成類(lèi)人語(yǔ)言,不能保證正確性。只有通過(guò)對齊,才能確保生成內容的正確性。
這是我們邁出的第一步,取得了兩個(gè)重大突破:
· 能夠生成人類(lèi)水平的文本,"說(shuō)人話(huà)"。
· 實(shí)現了人機自然語(yǔ)言流暢對話(huà)。在ChatGPT中,我們可以用純自然語(yǔ)言與機器對話(huà),這在過(guò)去是難以實(shí)現的,而且這種對話(huà)不受領(lǐng)域限制。
以前我們一點(diǎn)也做不到這兩點(diǎn),現在不僅可以在開(kāi)放領(lǐng)域做到,而且對話(huà)不受專(zhuān)業(yè)領(lǐng)域限制。這兩個(gè)突破非常重大,將推動(dòng)人工智能技術(shù)獲得進(jìn)一步發(fā)展。
舉一個(gè)簡(jiǎn)單的例子,讓ChatGPT以一個(gè)小學(xué)生的身份寫(xiě)一篇關(guān)于會(huì )飛的房子的文章。
我們可以看到,它表現出了很強的想象力,能想象房子長(cháng)出翅膀來(lái),飛到云端,降落在各種地方,看到的也都是童話(huà)世界,面包長(cháng)在樹(shù)上等等。這完全是人類(lèi)水準的文本生成。這一點(diǎn)實(shí)際上表明,人工智能向著(zhù)通用人工智能邁進(jìn)了一步。
以前的人工智能都受限于三個(gè)“特定”:特定領(lǐng)域、特定算法、完成特定任務(wù)。人工智能只能在限定的領(lǐng)域內工作,受限于特定算法,并完成特定的預設任務(wù)。這三個(gè)特定都使其受限于某一應用領(lǐng)域。
而生成式模型完全改變了這種模式。我們使用通用的轉換器(Transformer)模型,在開(kāi)放領(lǐng)域內生成各種任務(wù),完成多種任務(wù),不受領(lǐng)域限制。這表明人工智能正在向第三代人工智能發(fā)展,也證明了行為主義道路是可行的。
我們目前正在進(jìn)行的第二步工作,就是在GPT-4的基礎上構造一個(gè)智能體,使其能夠與數字世界交互。
為此我們必須實(shí)現兩點(diǎn),一件事就是要使得它能夠接受多模態(tài),就是要把感知這部分加進(jìn)去,這就是我們現在說(shuō)的這個(gè)多模態(tài)生成。通過(guò)多模態(tài)的生成,我們可以解決了感知的問(wèn)題,才能夠把這個(gè)環(huán)給閉起來(lái)。
我們知道,美國研發(fā)的CLIP模型實(shí)現了圖像和文本的對比學(xué)習。大語(yǔ)言模型解決了文本的語(yǔ)義處理,如果把圖像和文本關(guān)聯(lián)起來(lái),機器也能處理圖像內容。CLIP已經(jīng)展示了非常好的效果,無(wú)論是在圖像分割還是識別上,都實(shí)現了重大突破。
過(guò)去機器只能對圖像進(jìn)行分類(lèi),停留在感覺(jué)層面,而很難實(shí)現真正的感知。有了大語(yǔ)言模型把圖像和文本關(guān)聯(lián)后,這一問(wèn)題得到很好的解決,機器現在可以真正識別物體。
然后我們還要增加交互能力。我們過(guò)去第一步走的時(shí)候,我們主要用了語(yǔ)言模型跟人類(lèi)交互的能力,而大模型還可以與環(huán)境尤其是數字環(huán)境進(jìn)行交互。通過(guò)這兩點(diǎn)的組合,我們可以實(shí)現第二步目標。也就是說(shuō)機器可以與外部工具和環(huán)境結合,發(fā)揮問(wèn)題求解能力。
它不僅可以回答問(wèn)題,還可以幫助解決問(wèn)題,解釋和執行復雜指令,制定計劃來(lái)達成預定目標。與數字環(huán)境結合后,它可以通過(guò)反饋學(xué)習,判斷自己的行動(dòng)正確或錯誤。這是ChatGPT等第一代模型無(wú)法做到的。我們期望GPT-4可以達到這個(gè)目標,類(lèi)似ReAct和CogVLM也在朝這個(gè)方向發(fā)展,不僅可以推理,還可以采取行動(dòng)。
這里舉出了例子,說(shuō)明僅具備推理能力或僅具備行動(dòng)能力都無(wú)法完全解決問(wèn)題,必須推理和行動(dòng)能力的結合。
比如對于較復雜的推理問(wèn)題,GPT-4可以很好地處理。我讓GPT-4計算一個(gè)腦筋急轉彎的題目:我有10只碗,為開(kāi)派對向張家借5只、向李家借5只,派對后我把碗還給他們,那么我手里還剩多少碗?GPT-4起初誤解為0只,后來(lái)“仔細想了想”,推理出我還剩10只自己的碗。這類(lèi)復雜推理只有GPT-4能完成。針對復雜問(wèn)題求解如雞兔同籠題,它也能很好解決。
第三步發(fā)展非常重要,目前GPT-4最多只能與數字世界交互,我們最終必須使其能與物理世界交互。這就缺少了一個(gè)關(guān)鍵環(huán)節——機器人。要與世界溝通和采取行動(dòng),就需要機器人。因此,“具身智能”(Embodied AI)的提出很關(guān)鍵,它可以構建一個(gè)完整的智能體,既有感知能力,又有像人類(lèi)一樣的思考和行動(dòng)能力。這將形成一個(gè)完整的智能體。如果實(shí)現這一步,其結果將是難以想象的。因此,現在就必須把機器人技術(shù)配合上來(lái)。
那么大家看到了美國人就做人形機器人,我覺(jué)得不一定要做人形,因為很多地方使用的,就是手就可以了,或者腳就可以了。不一定把硬件搞得非常復雜,所以我的主張就是說(shuō),你有一定的硬件作為它的基礎,我們進(jìn)行研究,我們要研究什么問(wèn)題?研究強化學(xué)習,這是今后人工智能的方向,而且這個(gè)強化學(xué)習如果再進(jìn)步,我們過(guò)去所有的機器,做的都是外部驅動(dòng)的,我們如果能夠走到內部驅動(dòng),那就是能夠非常接近人類(lèi)智能。
接下來(lái)是人工智能發(fā)展下去,會(huì )產(chǎn)生什么影響?
這個(gè)我引用這個(gè)高盛的全球投資的一張圖,這張圖告訴我們說(shuō),人工智能這樣發(fā)展下去,最主要的一定會(huì )推動(dòng)經(jīng)濟的發(fā)展。
高盛的分析顯示,人工智能每年可帶來(lái)1.3%的全球經(jīng)濟增長(cháng),發(fā)達國家可能達到1.5%,中國大約0.9%。這些數字可能不夠準確,但人工智能促進(jìn)經(jīng)濟發(fā)展的趨勢是確定的。因此,中國要發(fā)展經(jīng)濟,就必須推動(dòng)人工智能技術(shù)發(fā)展。
第二句話(huà),看它究竟對我們產(chǎn)業(yè),各個(gè)行業(yè)產(chǎn)生什么影響?
有人擔心人工智能會(huì )代替人類(lèi)工作,其實(shí)這份報告分析了各行各業(yè),得出結論是人工智能對多數行業(yè)有利。左側深色表示不易被自動(dòng)化替代的體力勞動(dòng);相反,右側淺色表示可被部分替代的腦力勞動(dòng),但比例不會(huì )超過(guò)1/3。大部分工作將是人機互補,提高工作質(zhì)量和效率。
為什么大模型難以完全替代人類(lèi)?是因為當前人工智能模型存在天花板。
就是說(shuō)大模型所有的工作都是外部提示的,不是它主動(dòng)做的,而且它是在外部提示下,用概率的預測的辦法來(lái)完成它。人類(lèi)完全不是這樣,所有工作基本上是在內部驅動(dòng)下,內部意圖的驅動(dòng)下,在意圖的控制下,或者意識的控制下來(lái)完成的,這就表現了大模型的三個(gè)天花板。
第一,質(zhì)量不可控。大模型的質(zhì)量無(wú)法人為控制,輸出質(zhì)量不穩定。
第二,生成結果存在正確錯誤,因而不可信。
第三,不魯棒。輸出很依賴(lài)輸入提示詞,相同內容不同提示詞會(huì )產(chǎn)生不同解,給出不同回答。
綜上所述,當前大模型存在的三大問(wèn)題(不可控、不可信、不魯棒)是根本性的缺陷,隨著(zhù)模型規模的增加也難以解決。
前幾天我看了圖靈獎得主 Joseph Sifakis 在清華做的報告,他也是這個(gè)觀(guān)點(diǎn)一樣的,他就畫(huà)出來(lái)這個(gè)智能化三個(gè)層次,他認為目前來(lái)講,機器大多數作為輔助,那么第二步走向自動(dòng)化,自動(dòng)化的意思是什么,把部分的監控任務(wù)交給機器。
最終它叫做自主化,把所有的控制、監控都交給機器,這個(gè)他覺(jué)得很難,最主要的原因就剛才我們講到不可信,機器不可信,所以總體來(lái)講我們應該看到今后的最主要的內容,就是我們把機器作為我們最好的助手,當然相當一部分工作會(huì )被它代替,但是這個(gè)要分領(lǐng)域的,不是所有領(lǐng)域都是這樣。
這個(gè)總結一下,實(shí)際上就是我們當初提出來(lái)的發(fā)展三代人工智能的思想。
第三代人工智能的最主要思想是三個(gè),一個(gè)我們必須要建立人工智能的可解釋與魯棒(穩?。┑腁I理論與方法。
因為到現在為止這個(gè)理論還沒(méi)有建立起來(lái),這就是人工智能所以緩慢和曲折的原因。為什么理論建立不起來(lái)?就受到三個(gè)特定的限制。因為過(guò)去你只能在特定領(lǐng)域,利用特定模型去解決特定的任務(wù),根本你就在特定情況下做的事,怎么可能建立一個(gè)通用理論呢?大模型的出現給我們建立這個(gè)理論提供了可能性,因為你不走向通用,你不可能建立通用理論,所以現在這個(gè)有可能了。
那這種情況下,我們才有可能得到安全、可控、可信、可靠和可擴展的人工智能技術(shù)。換句話(huà)講如果這個(gè)理論沒(méi)有建立起來(lái),我們人工智能的技術(shù)永遠是難以相信。
三是推動(dòng)AI的創(chuàng )新應用與產(chǎn)業(yè)化,這個(gè)我們特別強調知識的作用,這個(gè)就必須充分發(fā)揮這四個(gè)要素,這個(gè)四個(gè)要素肯定都要發(fā)揮知識、數據、算法、算力,但是我們最主張的,就必須重視知識作用,所以我們把知識放在第一位。
人工智能發(fā)展可以分為三個(gè)階段。第一代人工智能試圖通過(guò)建立語(yǔ)義符號系統來(lái)模擬人類(lèi)思考,包括推理、決策、診斷、設計、規劃和創(chuàng )作等能力。這體現了符號主義和行為主義的主張,即構建一個(gè)語(yǔ)言和符號的理想空間,在這個(gè)空間內模擬人類(lèi)思考。但是這種模型存在一個(gè)重大缺陷,即“符號接地”(the symbol grounding problem)問(wèn)題,無(wú)法與物理世界聯(lián)系,系統都是人為定義的,與外部環(huán)境脫節。
第二代人工智能試圖通過(guò)構建特征向量的連續空間來(lái)實(shí)現感知,可以利用大量數據進(jìn)行訓練。但是其最大問(wèn)題是與認知層面脫節,僅能對物體進(jìn)行區分,無(wú)法真正理解和認知。
為克服第一代和第二代人工智能的局限,我們在第三代人工智能中提出構建“準語(yǔ)義向量連續空間”,也就是大語(yǔ)言模型構建的空間。這打通了三種空間,才可能建立一個(gè)真正的智能體,實(shí)現思考、感知和行動(dòng)的統一。大語(yǔ)言模型的出現使這一目標看起來(lái)可能實(shí)現。但是,仍有很多問(wèn)題有待解決,需要大量工作。
總之,大語(yǔ)言模型為實(shí)現真正的人工通用智能提供了可能性,但距離最終目標還有一定差距。
最后,我就談兩點(diǎn)思考。
首先,盡管人工智能目前正處于穩步發(fā)展階段,甚至可以說(shuō)是快速發(fā)展,它對各行各業(yè)產(chǎn)生了巨大影響。然而,我們也面臨著(zhù)許多不確定性,因為人工智能的發(fā)展往往是不可預測和不可控的。例如,我們目前對某些現象的解釋仍然停留在“涌現”這一概念上,這實(shí)際上意味著(zhù)我們尚未完全理解其背后的機制。
我認為中小型企業(yè)不應僅局限于科研,而應將科學(xué)研究、技術(shù)創(chuàng )新與產(chǎn)業(yè)發(fā)展緊密結合。智譜AI在這方面做得相當出色,它不僅重視研究工作,還通過(guò)組織此類(lèi)討論會(huì ),展示了對科學(xué)研究的重視。這種產(chǎn)學(xué)研結合的模式,特別是在中國,有助于產(chǎn)業(yè)的健康發(fā)展。
此外,我認為現在是抓住機遇,發(fā)展人工智能產(chǎn)業(yè)的關(guān)鍵時(shí)期。過(guò)去,人工智能產(chǎn)業(yè)受到特定領(lǐng)域和任務(wù)的限制,難以實(shí)現大規模發(fā)展。但現在,我們有機會(huì )開(kāi)發(fā)通用的硬件和軟件。
總結起來(lái)來(lái)講,通向通用人工智能道路還是很艱難的。但是不管怎么說(shuō),大語(yǔ)言模型為人工智能的發(fā)展打開(kāi)一條通向通用人工智能寬廣的道路。