ChatGPT大火后,大家討論最多的是“怎么用ChatGPT”、“ChatGPT怎么搞錢”。
(資料圖)
但是,在討論這些問題之前,有一個(gè)更重要的問題需要我們知道,“ ChatGPT是什么 ”。
因?yàn)橹挥辛私饬薈hatGPT的概念,我們才能更清楚它有什么價(jià)值,我們能怎么利用它。凡事知其然,也要知其所以然。把定義搞清楚,是一切討論的前提。
哲學(xué)家維特根斯坦說(shuō)過一句話: 語(yǔ)言的界限就是思想的界限。
備注:本文是從一個(gè)技術(shù)麻瓜(普通人)的視角來(lái)解釋,不用太擔(dān)心難以理解。
一、什么是人工智能
ChatGPT,是人工智能里程碑式的產(chǎn)品。所以在說(shuō)它之前,必須先聊聊什么是人工智能。
1950年,艾倫·圖靈發(fā)表了一篇?jiǎng)潟r(shí)代的論文《計(jì)算機(jī)器與智能》,這篇論文在開篇就拋出了一個(gè)有趣的問題:“ Can machines think(機(jī)器能思考嗎) ?”這個(gè)問題引起了廣泛的關(guān)注和思考,標(biāo)志著人工智能的起源。
簡(jiǎn)單點(diǎn)說(shuō),人工智能,就是要讓計(jì)算機(jī)擁有人類智能的能力,包括感知、學(xué)習(xí)、推理、創(chuàng)造和情感等。當(dāng)然,我們可以把它劃分為不同的層次:
運(yùn)算智能: 具備 計(jì)算和記憶 的能力。 感知智能: 對(duì)外界環(huán)境 感知 的能力,比如視覺(圖像識(shí)別)、聽覺(語(yǔ)音識(shí)別)等。 認(rèn)知智能:理解和思考 的能力。人類有概念,才有推理。先有理解,才有思考。比如自然語(yǔ)言處理技術(shù)(NLP)。 創(chuàng)造智能: 生成新信息、新想法或 創(chuàng)意的能力 ,包括生成文本、圖像、音樂等。
這幾年隨著感知智能的大幅度進(jìn)步,人們的焦點(diǎn)逐漸轉(zhuǎn)向了認(rèn)知智能。其中 自然語(yǔ)言處理 ,是重中之重,一旦有突破,會(huì)大幅度推動(dòng)人工智能的發(fā)展。
二、什么是自然語(yǔ)言處理
自然語(yǔ)言處理(Natural Language Processing,NLP):是計(jì)算機(jī) 理解(NLU) 和 生成(NLG) 人類語(yǔ)言的技術(shù)。
理解人類的語(yǔ)言是一件特別難的事情,舉個(gè)例子:
小明: 我知道你什么意思,你的意思就是想意思意思,但是你不明白我的意思,我的意思是你不用意思意思,我依然會(huì)幫你意思意思,我沒什么意思,就這點(diǎn)意思,不用意思意思,不然我會(huì)不好意思。你懂我的意思?
計(jì)算機(jī): ……%&¥
所以,自然語(yǔ)言處理,才被比爾蓋茨稱之為“皇冠上的明珠”。
比爾·蓋茨曾說(shuō)過,“自然語(yǔ)言處理是人工智能皇冠上的明珠,如果我們能夠推進(jìn)自然語(yǔ)言處理,就可以再造一個(gè)微軟?!?
三、什么是ChatGPT
ChatGPT,是自然語(yǔ)言處理技術(shù)的里程碑。如果說(shuō)過去,我們的對(duì)話機(jī)器人可以稱之為“人工智障”,而ChatGPT終于可以稱之為“人工智能”。
ChatGPT:全稱 Chat G enerative P re-trained T ransformer(生成型預(yù)訓(xùn)練變換模型)。
是不是覺得每個(gè)字都認(rèn)識(shí),但放在一起就懵了。其實(shí),這些單詞背后都是一個(gè)技術(shù)名詞,所以,我們需要一個(gè)詞一個(gè)詞的解釋一下。
3.1 ChatGPT
Chat: 代表著它的作用,可以用它來(lái)聊天。
GPT: 代表著它背后的技術(shù)。
G:Generative——生成式的(模型), 這里主要是和分類式的模型 Discriminative model 做個(gè)區(qū)分。
這里不用太深入了解,我們只需要知道生成式的模型,就是可以用它來(lái)生成內(nèi)容,比如一段話、一張圖片。
P:Pre-Trained——預(yù)訓(xùn)練的(模型)
T:Transformer——轉(zhuǎn)換器(模型)
為什么ChatGPT用的是Transformer模型,為什么要預(yù)訓(xùn)練,這里不太好解釋,我們需要先了解一下自然語(yǔ)言處理技術(shù)的發(fā)展歷程。
3.2 NLP技術(shù)的發(fā)展
我們都知道,要理解人類的語(yǔ)言是一件很復(fù)雜的事情,技術(shù)的發(fā)展也經(jīng)歷了波折的過程。
第一階段:基于規(guī)則的時(shí)代(1950s-1970s)
簡(jiǎn)單來(lái)說(shuō),就是設(shè)計(jì)一些規(guī)則,讓計(jì)算機(jī)按規(guī)則去理解人類的語(yǔ)言。比較著名的是 1966 年 MIT 發(fā)布的世界上第一臺(tái)聊天機(jī)器人 Eliza。但總體來(lái)看,這些機(jī)器人還無(wú)法與人真正實(shí)現(xiàn)對(duì)話。
第二階段:機(jī)器學(xué)習(xí)——神經(jīng)網(wǎng)絡(luò)時(shí)代(1970s-2010s)
機(jī)器學(xué)習(xí)的興起:機(jī)器學(xué)習(xí),指不通過人類指定的規(guī)則,而是通過機(jī)器自身運(yùn)行,習(xí)得事物的內(nèi)在規(guī)律。
用專業(yè)的話來(lái)說(shuō),就是“計(jì)算機(jī)程序能從經(jīng)驗(yàn)E中學(xué)習(xí),以解決某一任務(wù)T,并通過性能度量P,能夠測(cè)定在解決T時(shí),機(jī)器在學(xué)習(xí)經(jīng)驗(yàn)E后的表現(xiàn)提升”。
能用人話來(lái)解釋嗎?好嘞。
用小白的話來(lái)說(shuō),機(jī)器學(xué)習(xí)你可以把它想象成 “兒童學(xué)習(xí)的過程” 。比如:小明是一個(gè)小學(xué)生,他要參加考試(任務(wù)T)。如果想要讓它取得好成績(jī),就要讓他不斷刷題(經(jīng)驗(yàn)E),(性能P)就是考試成績(jī),然后通過不斷刷題,來(lái)提高成績(jī)。
機(jī)器學(xué)習(xí)的本質(zhì),是統(tǒng)計(jì)學(xué)。機(jī)器學(xué)習(xí)的結(jié)果,就是訓(xùn)練出一個(gè)“模型”。
這個(gè)模型可以理解為是一個(gè)函數(shù):y=f(x)。我們把數(shù)據(jù)(x)輸入進(jìn)去,得到輸出結(jié)果(y)。
比如語(yǔ)言模型: 就是對(duì)語(yǔ)言中的詞序列,進(jìn)行建模的統(tǒng)計(jì)模型, 給定前文(x), 生成 下一個(gè)詞(y) 的概率分布。
那怎么獲得這個(gè)模型呢——答案是訓(xùn)練。
一般先確定模型的類型 ,也就是f(x) 的具體形式,再結(jié)合 訓(xùn)練數(shù)據(jù) ,計(jì)算出其中 各個(gè)參數(shù)的具體取值 的過程。比如給定函數(shù):y=ax,我們需要通過“算法”,找到最優(yōu)參數(shù)a,這個(gè)就是 “機(jī)器學(xué)習(xí)” 的過程。目標(biāo)是讓輸出的結(jié)果 y`,最符合我們的業(yè)務(wù)目標(biāo) y。
經(jīng)過幾十年的努力,人們?cè)贜LP模型上不斷進(jìn)步。其中,神經(jīng)網(wǎng)絡(luò)作為一種模擬生物神經(jīng)系統(tǒng)的模型,在NLP領(lǐng)域取得了顯著的突破,成為了主流方法,比如RNN、LSTM等。
第三階段:Transformer模型(2017年至今)
當(dāng)然,RNN、LSTM等模型都不夠完美,最大的缺陷就是計(jì)算效率低、長(zhǎng)語(yǔ)言的效果差。
而在2017 年 Google 機(jī)器翻譯團(tuán)隊(duì)發(fā)布了著名論文 《Attention is All You Need》,提出了 Transformer 模型,帶來(lái)了歷史性的突破,成為了 NLP 歷史上的一個(gè)標(biāo)志性事件。
相較于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),Transformer 模型提升了語(yǔ)言模型運(yùn)行的效率 (效率更高) ,同時(shí)能夠更好的捕捉語(yǔ)言長(zhǎng)距離依賴的信息 (效果更好) 。
簡(jiǎn)單來(lái)說(shuō):就是Transformer這個(gè)模型,在處理自然語(yǔ)言任務(wù)上很牛逼!
3.3 為什么要 Pre-Trained(預(yù)訓(xùn)練)呢?
我們已經(jīng)知道,機(jī)器學(xué)習(xí)是在模仿“兒童學(xué)習(xí)”的過程。比如:
有一個(gè)小孩A,在家長(zhǎng)的指導(dǎo)下學(xué)習(xí)知識(shí),告訴它這是熊、那是馬,這種叫做“ 監(jiān)督學(xué)習(xí) ”。
有一個(gè)小孩B,沒有家長(zhǎng)教,直接把大量題目丟給他,讓他在題海中自己發(fā)現(xiàn)題目規(guī)律,當(dāng)題量足夠大的時(shí)候,B雖然不能完全理解每道題,但也會(huì)發(fā)現(xiàn)一些知識(shí)點(diǎn)的固定表述。這就叫做“ 無(wú)監(jiān)督學(xué)習(xí) ”。
很明顯,無(wú)監(jiān)督學(xué)習(xí),不會(huì)受限于人力,你只要把所有的數(shù)據(jù)喂給它就行了,它會(huì)自己總結(jié)內(nèi)部的規(guī)律。
預(yù)訓(xùn)練(Pre-training) 就是這個(gè)原理,先使用大規(guī)模的數(shù)據(jù)集對(duì)模型進(jìn)行事先的訓(xùn)練。這個(gè)預(yù)訓(xùn)練過程不針對(duì)特定的任務(wù),它會(huì)自動(dòng)地從數(shù)據(jù)中提取特征,從而學(xué)習(xí)到語(yǔ)言的潛在模式和結(jié)構(gòu)。
而要讓模型執(zhí)行具體任務(wù)時(shí),再使用特定任務(wù)的數(shù)據(jù)進(jìn)行監(jiān)督學(xué)習(xí),也就是 微調(diào)(Fine-tuning) 。從而讓模型更加專業(yè)化和適應(yīng)具體任務(wù)的需求。
比如ChatGPT就經(jīng)過了人類反饋的強(qiáng)化學(xué)習(xí)(RLHF),讓它能更勝任與人聊天的任務(wù)(更安全、更有禮貌、更有用)。 預(yù)訓(xùn)練+微調(diào) 的技術(shù),能讓ChatGPT更具有“泛化”能力,而不是只能解決特定問題的“專家”。
四、ChatGPT對(duì)我們意味著什么
這個(gè)問題我不想聊太大,什么取代人類的工作、什么AGI到來(lái)......
我覺得:作為普通人,唯一要做的就是不要落下,盡情地享受AI帶來(lái)的便利就好。推動(dòng)技術(shù)發(fā)展,是科學(xué)家的使命。
ChatGPT的本質(zhì)還只是工具,跟歷史上出現(xiàn)過的所有新工具一樣。我們必須要學(xué)習(xí)它,理解它、運(yùn)用它,讓它在學(xué)習(xí)和工作場(chǎng)景中發(fā)揮價(jià)值。
總結(jié)
ChatGPT:是一個(gè)人類語(yǔ)言的處理模型。
什么是模型: 本質(zhì)是函數(shù),比如 y=f(x),輸入(x),得到輸出結(jié)果(y),模型的目的是為了解決特定的問題。對(duì)于ChatGPT,你輸入一段文字后,它會(huì)“理解”你的語(yǔ)言,生成回應(yīng),為你提供建議或交流。 為什么能理解: 本質(zhì)是統(tǒng)計(jì)學(xué),不是真的理解。它是通過機(jī)器學(xué)習(xí),掌握了語(yǔ)言的規(guī)則和模式。 為什么效果史無(wú)前例:Transformer的模型 解決了過去技術(shù)效率低和效果差的問題+ 預(yù)訓(xùn)練 可以處理大量數(shù)據(jù),能力泛化+ 微調(diào) 幫助模型更適應(yīng)具體與人聊天的任務(wù)。
作者 | 王洲Joe 關(guān)注AI趨勢(shì),用人工智能改變工作和創(chuàng)造力。
標(biāo)簽: