亚洲国内精品自在线影视,国产成人色美女av网址,日本老太婆XXXB视频,浓逼毛美女掰逼

您的位置:首頁 > 滾動(dòng) >

【AI小雜談】語言模型與推理

2023-08-27 20:20:10 來源:?jiǎn)袅▎袅?/span>

最近出來了一個(gè)MathGPT,據(jù)說數(shù)學(xué)能力非常強(qiáng),并且已經(jīng)開始測(cè)試了。我個(gè)人使用的體驗(yàn)還可以,畢竟這個(gè)東西主要是為了中小學(xué)數(shù)學(xué)題服務(wù)的,難度不至于特別高。

然而,自從大語言模型(LLM)出現(xiàn)以來,推理和數(shù)學(xué)能力就一直是關(guān)注的焦點(diǎn),畢竟這里面涉及到的東西就多了,例如如何理解當(dāng)前的問題、在數(shù)學(xué)問題中如何避免幻覺、推理過程中對(duì)之前信息的記憶能力等等都會(huì)被考察到。不過,很遺憾的是,對(duì)于目前的LLM來說,數(shù)學(xué)和推理依然是弱項(xiàng)。


(資料圖)

我們首先從最基本的一些知識(shí)來分析,這也是之前一個(gè)朋友在某個(gè)動(dòng)態(tài)的評(píng)論中和我討論了好幾輪的一個(gè)話題。

以ChatGPT為代表,現(xiàn)在大部分語言模型都是基于Transformer架構(gòu)的,并且訓(xùn)練方式簡(jiǎn)單來說就是“預(yù)測(cè)下一個(gè)token”,token一般翻譯成“詞元”、“子詞”等,例如apple可能被拆分為“app”和“l(fā)e”,這倆都是token。當(dāng)然,如果你覺得理解起來有些難度,那么就簡(jiǎn)單理解成“預(yù)測(cè)下一個(gè)詞”就好,兩者只是粒度上的差別,所以后面以中文為例的話,我就當(dāng)做“預(yù)測(cè)下一個(gè)漢字”來舉例了。

舉個(gè)例子,假設(shè)我問ChatGPT“在中國(guó)一般旺財(cái)指代哪種動(dòng)物?”,ChatGPT會(huì)把這段話作為輸入,首先預(yù)測(cè)并生成下一個(gè)字“旺”,然后把“在中國(guó)一般旺財(cái)指代哪種動(dòng)物?旺”作為輸入預(yù)測(cè)并生成“財(cái)”,就這樣一步步地生成整個(gè)回答“旺財(cái)在中國(guó)一般指代狗”。在使用的時(shí)候是這樣,訓(xùn)練的時(shí)候也是這樣,也就是說,在ChatGPT“預(yù)”訓(xùn)練期間它所做的就是使得預(yù)測(cè)下一個(gè)詞的精度盡可能高。

所以從根本上來說,ChatGPT并不會(huì)像我們學(xué)習(xí)一樣,一開始掌握概念、掌握方法,然后一步步分析問題,他所做的只是根據(jù)當(dāng)前的輸入預(yù)測(cè)出下一個(gè)詞罷了。

那么問題來了,為什么ChatGPT能夠有很驚艷的表現(xiàn),而且看起來至少能做很多低難度的數(shù)學(xué)題呢?

關(guān)鍵就在于巨量的訓(xùn)練語料,因?yàn)椤?+1=2”這樣的東西在訓(xùn)練語料中反復(fù)出現(xiàn),ChatGPT從中學(xué)到了“1+1=”后出現(xiàn)“2”的幾率更高,或者說,仍然是基于統(tǒng)計(jì)的。

當(dāng)然,大模型還有很多神秘的地方,例如很多研究都表明語言模型不是只會(huì)停留在簡(jiǎn)單的統(tǒng)計(jì)和記憶階段,他們也會(huì)在內(nèi)部模擬一些很抽象的東西,一個(gè)例子就是代碼追蹤。

這里舉個(gè)簡(jiǎn)單的例子:“a=10;b=20;c=a+b;d=c/2”這段話中并沒有顯示給出c的值,但是我們是可以發(fā)現(xiàn)ChatGPT在內(nèi)部一些地方模擬出c的值的(這是MIT的一篇研究論文,實(shí)際上比這個(gè)復(fù)雜,這里為方便理解做了簡(jiǎn)化),這說明大模型是超越了簡(jiǎn)單的統(tǒng)計(jì)的,當(dāng)然究竟超過了多少仍然是一個(gè)有待研究并且要研究很久的的問題。

當(dāng)然,雖然“大模型學(xué)到了一些抽象的東西”基本上可以算的上是共識(shí)了,但這并不意味著當(dāng)前的大模型就會(huì)推理了,有篇文章的標(biāo)題就很直白《GPT-4 can't reason》,說明大模型在解決一些推理問題(大部分都是數(shù)學(xué)題)時(shí)會(huì)犯很多人類完全不會(huì)犯的奇怪的錯(cuò)誤,所以即使很多時(shí)候我們可能覺得ChatGPT能解決一些復(fù)雜問題,也不意味著它真的在做推理。

當(dāng)然,這事情還可以繼續(xù)“滑坡”,甚至直接滑到哥德爾不完備性定理這堵嘆息之墻那里,當(dāng)然這里就不展開談了。

從我的觀察來看,目前很多人看待AI都陷入了兩個(gè)極端,要么直接批判AI什么都做不到,要么把AI目前亮眼的表現(xiàn)捧得很高。

不過很多時(shí)候也只是視角的問題,有些人預(yù)設(shè)了“AI能解決一切問題”,然后發(fā)現(xiàn)它從理論上就做不到,然而如果預(yù)設(shè)了“AI什么都做不到”,那“為什么AI有時(shí)候確實(shí)能有亮眼的表現(xiàn)”這個(gè)問題就值得研究了。算了,這個(gè)問題要談起來確實(shí)太復(fù)雜了,雜談就懶得展開了

最后還是需要說,不要無條件相信大模型的輸出,這是“盡信書則不如無書”的最好的試金臺(tái)。

關(guān)鍵詞:

[責(zé)任編輯:xwzkw]

相關(guān)閱讀

广丰县| 德令哈市| 桦甸市| 大姚县| 抚远县| 高碑店市| 司法| 呈贡县| 四子王旗| 伊宁市| 郑州市| 罗城| 洪江市| 马公市| 友谊县| 新津县| 鄂伦春自治旗| 英超| 阿巴嘎旗| 灵宝市| 临颍县| 盘锦市| 平山县| 汾西县| 金平| 广元市| 西乌珠穆沁旗| 黄浦区| 乃东县| 瓦房店市| 云阳县| 临猗县| 宣威市| 大宁县| 枝江市| 商洛市| 马鞍山市| 万安县| 方城县| 蒙山县| 民和|