亚洲国内精品自在线影视,国产成人色美女av网址,日本老太婆XXXB视频,浓逼毛美女掰逼

您的位置:首頁 > 要聞 >

清華教授黃民烈:找到ChatGPT后最有希望的AI賽道

2023-08-04 08:26:33 來源:騰訊網(wǎng)

《AI未來指北》欄目由騰訊新聞推出,邀約全球業(yè)內(nèi)專家、創(chuàng)業(yè)者、投資人,探討AI領域的技術(shù)發(fā)展、商業(yè)模式、應用場景、及治理挑戰(zhàn)。

7月初,OpenAI之下最高估值的AI公司誕生了。這家之前名不見經(jīng)傳的公司 Inflection AI 在新一輪融資中籌集到了 13 億美元,一躍估值突破40億美元。成功捅破了OpenAI之后,大模型只剩下大公司斗法的賽道敘事。這次融資的領投名單也是群星璀璨,集結(jié)了幾乎所有硅谷巨頭,微軟、比爾蓋茨、Google前CEO埃里克施密特和領英創(chuàng)始人里德霍夫曼都棲身其間。還有剛剛步入AI企業(yè)投資,把手伸到下游的 NVIDIA。

這家公司只有一個產(chǎn)品,即兩個月前才剛剛上線的 Pi。如果說ChatGPT是一個人類效率放大器,那Pi就是個人類情感的按摩師。不同于ChatGPT更傾向于工具的設定,Pi 的主要特征是富有同情心、簡明扼要、幽默創(chuàng)新。


(資料圖片)

Pi的深受追捧,照亮了被ChatGPT這類智能AI光芒所隱沒的另一條道路:情感AI。一個能給你帶來理解,重視,關(guān)懷的AI,比起冷冰冰的提效類智能AI,潛在的市場完全可能更大。

清華大學的黃民烈教授,就是在中國選擇走上情感AI道路的研究者。在他看來,GPT毫無疑問是一種范式突破,但它沒有辦法滿足不同領域的需求,尤其是情感方面的需求。這條探索路徑可以追溯到 1966年MIT的心理治療對話AI,比目前的GPT這類通用任務助理的起點更為久遠。

黃教授認為,在效率提升的需求之外,人類的重要情感需求現(xiàn)在還遠沒有被AI滿足。而這是一個巨大的,應該探索的需求。雖然AI現(xiàn)在只有一些基礎人格形式,很難說它已經(jīng)具有了情感。但通過一些專業(yè)性的數(shù)據(jù)訓練,AI已經(jīng)可以承擔起初級心理咨詢師的一些工作。像開篇提到的Pi,其實就融合了正向心理學的一些框架思想,才能讓人感覺到它充滿同理心,總是能讓人想要和它進行交流。

黃教授完全同意赫拉利所說的一旦AI懂了情感,它就更可能去控制人類的行為,甚至PUA它的談話對象。也由此會引生出更多AI濫用的可能。因此在技術(shù)探索的路程中,對AI的限制和治理也是很迫切的。問題看來很嚴峻,但比起拆開AI自身的黑盒子,治理的路徑相當清晰:一套規(guī)范和標準,相關(guān)檢測和評估技術(shù),一套評價體系就能搭建起完整的治理系統(tǒng)??恐@套體系,編織這張覆蓋著AI的安全防護網(wǎng)只需要兩年,足夠跑贏所有AI滅世的預測時間。擔憂是合理的,但恐慌大可不必。

以下是訪談全文:

只靠語言模型解決不了行業(yè)需求

騰訊科技:

您第一次接觸到ChatGPT是一種什么感覺?它是否算是一種范式突破?

黃民烈:

ChatGPT剛出來的時候,其實最主要(的特點)是來自于它很高的智能水平以及它作為一種通用任務助理的定位。過去我們做類似的這種任務助理,就比如說訂餐訂票這種,這都是一些很傳統(tǒng)的任務。ChatGPT推出之后,他可以在一個模型中處理各種開放任務,而且能力水平確實顛覆了我們之前的認知,它能夠在同一個系統(tǒng)里高水平的完成多種不同的任務。這可以理解成是一種范式性的突破。這和過去我們的技術(shù)路線很不同。

騰訊科技:

很多研究者,包括楊立昆都認為,ChatGPT在技術(shù)上是依靠的是2017年的Transformer模型,因此沒有什么創(chuàng)新。那OpenAI是如何讓自己的模型做的比其他模型都好的?

黃民烈:

ChatGPT的底層是基于Transformer的架構(gòu),所以在模型的架構(gòu)上確實沒有什么創(chuàng)新(最近的一些模型設計有一些新的創(chuàng)新)。其實它的成功,實際上是數(shù)據(jù)加工程加系統(tǒng)層面的集成式的一個創(chuàng)新。

集成式創(chuàng)新包括比如數(shù)據(jù)層面,OpenAI其實做了大量的數(shù)據(jù)積累和數(shù)據(jù)工程,以及高質(zhì)量的人工收集、標注、清洗等等。工程層面上它其實也是面臨一些比較大的挑戰(zhàn),就過去我們可能做需要幾十張GPU卡的可以(簡單一些),但把這個模型的規(guī)模和數(shù)據(jù)做到了需要幾千張幾萬張卡的程度,這就會涉及到很多并行算法調(diào)度等各方面的工程挑戰(zhàn)。最后系統(tǒng)方面,我們其實看到在過去幾年里OpenAI一直把GPT作為一個產(chǎn)品來進行迭代。與之相比,我們之前的那些模型或多或少都是作為一種項目在開發(fā),我把這個模型做好了,開源出來之后,它就沒有進一步的迭代更新機制了。

騰訊科技:

如您所說,OpenAI作為一個企業(yè)才會有持續(xù)性的產(chǎn)品迭代。而學術(shù)界基本都以單一項目或?qū)嶒炦M行開發(fā)。所以您作為一個學術(shù)界和企業(yè)界都有涉足的專家,如何看待OpenAI作為一個企業(yè),與學術(shù)界研究的區(qū)別與關(guān)聯(lián)?

黃民烈:

這其中的區(qū)別主要就是OpenAI(作為一個企業(yè))有很強的算法和工程的團隊,這是第一點。第二點它有很多算力的資源。現(xiàn)在你看在學術(shù)界去做(人工智能)的話,我們第一不太可能有這么多的算力資源,第二也不太可能有這么大的工程團隊。所以學術(shù)界現(xiàn)在主要聚焦在一些基本的問題上,比如說我們現(xiàn)在看到的大模型可能會產(chǎn)生幻覺的問題,安全性的問題,包括精確計算,就是模型不能夠很有效進行精確計算。

OpenAI的那些工程師、科學家本身其實做學術(shù)能力很強,然后他又有很好的算法和工程的技巧,所以他們能把這件事做得特別好。我覺得未來做真正的AGI一定是最頂尖的學術(shù)機構(gòu)和工業(yè)界密切合作的一個產(chǎn)物。

騰訊科技:

前一段時間谷歌的一位工程師發(fā)表了一篇內(nèi)部的memo,稱大語言模型可沒有護城河。包括OpenAI也沒有,谷歌也沒有,大家都可能會在很快超越它們。您認可這個說法嗎?

黃民烈:

我認為這也是一定程度的誤解。從谷歌的角度來講,如果真的要嚴肅的去做,我覺得趕上OpenAI應該是不太難的一件事,因為本身它有算力,有數(shù)據(jù)團隊,也有人才。但是說要其他的公司說要很容易去超越的話,我覺得這里邊有紙上談兵的感覺。好比說,原子彈的原理看起來都簡單,但真正做出來那可不是容易的事情。

因為其實這里邊算力,錢,人才,數(shù)據(jù)等各方面其實都是需要花時間去積累和沉淀的,包括現(xiàn)在國內(nèi)的這些號稱說要做中國OpenAI的公司。其實大家都在追趕,但你能夠追到80分90分已經(jīng)非常了不起了。而且人家也在不斷的迭代,不斷的進步,所以我覺得這個事情其實還是挺復雜的,是一個系統(tǒng)層面的問題。而不僅僅是說在模型結(jié)構(gòu)上沒有創(chuàng)新,那就是沒有護城河。本身它是一個綜合實力的考量,它不僅僅是模型的結(jié)構(gòu)算法的創(chuàng)新,更多的可能是算力資金,然后數(shù)據(jù),然后整個工程層面的(造成)這樣的一個壁壘。

騰訊科技:

那您覺得現(xiàn)在 OpenAI或者谷歌這樣的一些公司,他們是不是已經(jīng)建立起來了護城河?

黃民烈:

毫無疑問OpenAI肯定是已經(jīng)有自己的護城河了,別人想要追趕他其實不太容易的。

比如說GPT4的細節(jié)沒有公布,它多模態(tài)的能力確實還是很強的。除此之外OpenAI還在不斷的利用這種數(shù)據(jù)的飛輪持續(xù)進步。中國的話,我們也有一些公司處在領先的階段,但實際上未來怎么發(fā)展,誰能夠最終勝出,取決于一是整體的定位,另外一個就是在這方面能不能持續(xù)的投入,能夠堅持多久。基本上是這樣一套邏輯。

騰訊科技:

現(xiàn)在大家都是用同一個模型,最近有一些新研究可以把整體訓練的成本降低。您覺得下一步中國公司會去突破趕超OpenAI的話,是不是有一些其他的路徑可選,而不是走完全一樣的路線?

黃民烈:

我覺得這是一個非常好的問題。其實現(xiàn)在大家都在擠大語言模型賽道,但實際上我覺得從AGI的未來看也不排除有其他的一些路線。很多人也質(zhì)疑說,像ChatGPT這種大語言模型其實根本創(chuàng)造不了新的東西。所以未來很有可能會有新的路線出來,但大家目前還看不到(具體的方向)。只是說現(xiàn)在我們發(fā)現(xiàn)大語言模型這條路可能離AGI更近,或者是更容易實現(xiàn)的一條路線。現(xiàn)在說實話,其他的路徑它面臨的問題是,比如說符號主義,它有很多基于符號運算,在工程上它怎么能夠進行規(guī)模化,這是一個最現(xiàn)實的難點。

而現(xiàn)在大語言模型已經(jīng)不僅能做得很大,用的數(shù)據(jù)也很多,而且能力還很強,所以我覺得這是目前看到的一線曙光。但是未來我認為肯定是會有別的東西,有可能是在把大語言模型作為一個框架,會把其他的一些東西裝進來,比如說符號學派。

騰訊科技:

之前陸奇也提出過,不要再去做知識圖譜,這個觀點您認同嗎?

黃民烈:

我不知道他這句話的背景。據(jù)我所知,把大模型作為一個知識庫做問答,離其它傳統(tǒng)方法在benchmark數(shù)據(jù)集上的能力距離挺遠的,有人做過這樣的研究?,F(xiàn)在的GPT去處理一些數(shù)學計算的問題,它基本上就是亂答。因為數(shù)學的問題它都是精確推理,你不會說1+1=3。1+1=2(這個敘述),要么就是1(真),要么就是0(假),它只有0和1的概率,它并沒有說在0和1之間的概率。所以很多情況下符號推理是非常重要的。

騰訊科技:

之前 Sam Altman 在采訪之中也提到,如果通用模型發(fā)展的很快,很多任務它都可以完成的很好。我們再去發(fā)展垂直的領域,這是不是有意義的?

黃民烈:

肯定非常有意義。在一個底座的基礎上做行業(yè)模型,領域模型,這個實際上是非常必要的。通用的智能模型我們其實不需要去解決最后交付的問題。你到一個行業(yè)到一個領域的時候,我肯定是要解決這個行業(yè)和領域真正的一些需求,一些痛點,這時候就會涉及到很多的行業(yè)知識和規(guī)則。

在大語言模型往下沉的過程中,領域和行業(yè)的一些特定的訓練,優(yōu)化的方法,包括怎么樣把一些行業(yè)的知識和規(guī)則注入進去,這對于能真正讓它產(chǎn)生價值,在實際的業(yè)務中發(fā)揮作用是非常重要的。

比如做醫(yī)療,有些情況下你是絕對不能說錯的。這里邊你就需要一些額外的算法,模塊化的處理。在做心理咨詢的時候,我們面臨的一個場景就是用大模型對應抑郁的用戶,他很容易自殺,可能聊著精神就崩潰了,然后他就說想找個天臺跳下。這時候你需要馬上檢測他的狀態(tài),并實施干預,比如說接到人工的服務上來。我們做的一個事情,就是做一個很強的分類器看他是不是會有自殺的傾向,只要在檢測到相關(guān)傾向就會立刻終止人機對話。

另外如果是在金融這個場景,你需要是動態(tài)實時的信息。我們現(xiàn)在和中金及螞蟻合作做金融這個場景的一些大模型的應用,就是在突破如何獲取動態(tài)實時的工作。

另外就是,你不能亂說,同時你在薦股,買基金的時候要合規(guī)。這種合規(guī)不可能通過一個簡單的模型數(shù)據(jù)驅(qū)動的方法就能實現(xiàn)。

騰訊科技:

您覺得現(xiàn)在目前哪些領域可能是最早被AI的介入所改變的?

黃民烈:

我覺得可能最容易見到的是一些跟寫作相關(guān)的,比如寫代碼效率的提升,還有像營銷,數(shù)字營銷——我可以寫個營銷文案,然后輸入大量的素材,用AIGC的方式來產(chǎn)出。教育也是一個很大的場景,比如說現(xiàn)在AI的輔助教師能引導小朋友能更好的去思考,更好的去理解故事里邊的情節(jié)和價值觀。

其他的像游戲也是很大的一個場景。另外的相對要做的更難一點的(領域),比如說醫(yī)療,金融。因為它有很多動態(tài)的實時信息今和知識性的基礎,這方面我們要去更好的處理這種領域和業(yè)務相關(guān)的東西,可能會稍微(發(fā)展)慢一點,但會潛在的發(fā)揮很大的作用和價值。

騰訊科技:

目前市面上的公司要去開發(fā)垂直領域模型,需要的最重要的能力是什么?

黃民烈:

我覺得一是要有一些底層的能力,比如說預訓練模型精調(diào),強化學習等等,還是很重要的。

另一方面就是說你要有對行業(yè)和領域的了解。對行業(yè)的了解,就相當于說我知道在何時以何種方式能夠把這種行業(yè)知識和規(guī)則嵌進(模型中)。這里不是一個非常簡單拿數(shù)據(jù)來訓練一下就行,而是要跟底層的算法和模型進行結(jié)合。

但這里邊其實有很多沒看起來那么容易的細節(jié)。并不是簡單的說我把數(shù)據(jù)拿過來然后train(訓練)一下,得到還不錯的一個結(jié)果,比如說能做到80分,但是其實你最終離交付客戶的需求可能是95分,這個時候你這15分怎么去提升?是需要一些行業(yè)專家的參與的。

騰訊科技:

現(xiàn)在目前比較熱門的兩個AI研究方向,一個是AutoGPT讓AI變成自動化,成為一種智能代理;另一個是多模態(tài)的嘗試。您覺得為什么這兩個方向如此受到關(guān)注,他們對AI的下一步發(fā)展會帶來什么樣的意義?

黃民烈:

我覺得代理化最主要還是因為它是一個自動化工具跟語言模型的結(jié)合,可以把語言模型作為理解的基座,那么我可以比如說在交互的上下文里,去理解當下應該去做的一個動作和決策是什么。AutoGPT相當于讓它能夠進一步的接上執(zhí)行和決策的鏈路,把它的應用范圍擴充的更大了。過去是只能跟你聊天,現(xiàn)在你跟他講說你幫我訂個票,你幫我設個鬧鐘,用對話作為入口跟一些外部的API結(jié)合起來的時候,相當于是把執(zhí)行能力補齊了。

多模態(tài)就相當于是(語言模型)有眼睛和耳朵。過去我們可能只能通過文字說話,現(xiàn)在多模態(tài)的話,我可以幫你視覺、語音這樣的功能接進來,進一步擴展了它的感知和認知的能力,通過這種方式更好的去實現(xiàn)理解表達,讓AI更類人了。

如果你把它裝到一個機器人身上的話,它不僅有眼睛有耳朵,有執(zhí)行部件,還能夠去做操作做行動,做決策。比如說 AI 和人型機人這樣的硬件設備結(jié)合,這里面就有更多的可為些空間了。

騰訊科技:

馬斯克也說過10年之內(nèi)AI就能到達AGI的水平,您覺的通過上面提到的兩個路徑加強過的AI有可能在2030年前實現(xiàn)AGI嗎?

黃民烈:

2030年可能稍微有點早,但是我覺得隨著智能化的水平越來越提升,這個是毫無疑問的。未來(達成AGI)我覺得可以預見的。

比如你現(xiàn)在看GPT 4對吧?它其實已經(jīng)很強大了,甚至很多情況下超過我們這種人類百分之八九十的水平。無論是各種資格律師資格考試,英語考試等等,都能夠達到人類Top10%的能力。

但是AI距離人還有一些短板,比如說舉一反三的能力,然后魯棒性,泛化性上依然有一些差距。這些差距就是我們未來去努力的方向,但是我覺得這可能沒有一個固定的時間,我覺得可能是10年也可能是20年。

情感AI:人工智能的另一條路徑

騰訊科技:

有很多AI產(chǎn)品,比如說像Pi、Charater AI,它們綜合能力可能不如ChatGPT強,但卻很受人關(guān)注,它們能夠提供什么更通用的模型所提供不了的能力?

黃民烈:

ChatGPT這一類的其實它的定位非常之清晰,它主要是功能性的AI,它的定位就是幫人類解決功能層面,信息需求層面問題的能力。它的主要目的是提高生產(chǎn)效率,解放人類的生產(chǎn)力,提升創(chuàng)造力。

但人的另外一個很大的需求是情感和社交的需求,也就是說情緒價值。像Charater AI,包括我們做的AI烏托邦,它其實是要滿足你的情緒價值,能幫你做情感社交的陪伴。同時還能夠幫你解決一些情感心理層面的問題。這是它的一個不一樣的定位。

過去我們聆心智能也在心理上做了一些探索,一直在往著通用的情感型AI,也就是擬人型AI這個方向走。其實在這個方向上,Google在2020、21年就訓練出過Meena和LaMDA這兩個系統(tǒng)。它們的研究更早于ChatGPT,而且做得非常好,只是沒有大規(guī)模的向公眾進行推廣。

我認為情感型的AI要跟功能性的AI要結(jié)合在一起才能成為真正意義上的AGI。這我們叫做AGI伙伴。它既能給你解決問題,去滿足你的信息需求,同時也能給你建立情感信任,建立社會連接。通過這種社會連接AI就真正是一個類人的小伙伴,非常貼心。

比如說我舉個例子,就是說我們可能在功能AI的時代,AI協(xié)助訂餐可能會考慮一些個人的偏好,但如果說我們把情感維度加進來,AI就能知道你開心的時候喜歡吃什么,然后不開心的時候喜歡吃什么,這也是非常重要的維度。

所以你看到的就是類似Character AI包括 Pi ,實際上是滿足人的一個情緒需求,從情緒的層面上,人也是一個非?;镜囊粋€需求,人并不總是只需要解決工作的問題,GPT是解決工作的模式,理科生的模式,但我們社會還需要一些文科生。除了工作之外,我們還得有娛樂有消遣,有情感的需求。

我覺得這兩個方面其實都非常重要。只是說現(xiàn)在都在看功能層面的一些事情,其實未來情感的需求會是非常重要的一個方向。

騰訊科技:

您剛才提到的包括Google在2020年就已經(jīng)做過相關(guān)的情感型AI的探索,他們具體的探索歷程是什么樣的?

黃民烈:

當時不僅是谷歌,包括Facebook微軟,包括國內(nèi)的百度等等,這些公司最早研究的是叫開放域閑聊的對話系統(tǒng)。這個系統(tǒng)的歷史就可以追溯到1966年的MIT做的一個心理治療的機器人。因為實際上大家覺得你過去做這種任務性的對話,包括訂餐訂票,其實就是相對比較容易的事,因為它是限定領域,限定任務的,有比較容易工程上的一個解法。但開放域的對話,他是不受限的對話場景,面臨的技術(shù)上的挑戰(zhàn)是非常難的。所以在2020年的時候,谷歌就推了Meena。

后來谷歌又進一步進化,把這個模型做到了1,350億參數(shù),LaMDA也是用了預訓練的技術(shù),后面再加了這種跟對話相關(guān)的一些特殊的優(yōu)化,因此它做出來的東西非常類人。2022年的時候,谷歌出了一個非常有爭議的事件,他們自己的一個做AI倫理和安全的這樣的研究員和LaMDA聊天之后,他就覺得LaMDA有意識和人格的覺醒。這件事說明,其實在這個方向上當時AI的能力很強,而且不亞于ChatGPT的能力,而且它的研究是更早期的。

同時我們還可以看到現(xiàn)在是ChatGPT的很多的一些技術(shù),其實人家在LaMDA里邊已經(jīng)用了,包括插件系統(tǒng),其實就是LaMDA早期的tool set,同時他們用的strategy token(策略令牌),包括一些預訓練的微調(diào)的方法,其實都是在早期的一些技術(shù)積累。

所以我覺得其實這個方向的研究要更早于現(xiàn)在的ChatGPT這種通用任務助理這一派的研究。

騰訊科技:

您剛才說的這谷歌的研究員事件確實當時特別轟動,你認為現(xiàn)在目前的AI它能夠形成自我意識和情感嗎?

黃民烈:

AI確實在能力上非常的類人,但是不能說它有自主的情感,但也不能他說它沒有情感。我認為他會從大量的人類數(shù)據(jù)里邊學到一個大概平均的人格。但是他自主的情感,相當于作為一個人的話,他有自己的情緒的變化和發(fā)展過程,同時會根據(jù)外界的刺激和事件不斷的去演進,這種東西現(xiàn)在在AI里還是沒有的。是不是具有自主的情感和意識,是機器和人很大的一個差別。

騰訊科技:

因為人和動物的情感都是誕生于生物性的進化的,而AI不存在這種生物結(jié)構(gòu)。我們是否能通過系統(tǒng)建構(gòu)的方式讓它獲得真實的情感能力?

黃民烈:

這個問題是說機器人需不需要有自己的情感和心理,這是一個比較有爭議的話題,目前大家也沒有一個明確的結(jié)論。如果說真正的說讓AI能夠具有自己的情感的話,意味著說它可能離類人又近了一步。那后續(xù)AI和人類的情感上的連接和關(guān)系是怎樣的,可能會帶來哪些潛在的社會的影響,這也會是一個很大的話題。

但是我覺得從技術(shù)研究上我們先去做探索,然后再去做治理,我覺得本身這個方向肯定是沒有問題的。

我們現(xiàn)在開發(fā)的目標就是讓AI能夠理解人類的情感。讓它去識別什么人類表達的情緒是高興,是開心是憤怒,還是說是郁悶。同時我們也做了一些工作,比如說像在2018年我們做了一個Emotional chatting machine,就是說能夠讓機器表達一定的情感。這樣人類的用戶很傷心的時候,AI也可以去做共情。

為了做到這一點,我們要去做一些特殊的策略。讓AI去理解一些表達,能對人類的情感和情緒進行關(guān)照的一些特異的表達。

騰訊科技:

那現(xiàn)在的情感AI能達到什么樣的水平?

黃民烈:

我們曾經(jīng)做了一個情緒支持的對話AI,它已經(jīng)達到了實習咨詢師的這樣的一個水平。我們可以通過引入一些人類的咨詢師策略,比如說先做探索,然后再做安撫,然后最后他給他一些建議。

比如說你現(xiàn)在跟一個心理抑郁或者有情緒問題的人聊天的時候,如果你沒有經(jīng)過專業(yè)的訓練的話,普通的人你都不知道怎么跟他聊天。但其實現(xiàn)在的AI它能夠做到一個程度,就是說我知道專業(yè)的人是怎么聊的,然后他把這種策略和話術(shù)學到之后,他能夠更好的去服務這種有需要的這種人。

之前你提到的 Pi,它其實它其實植入了所謂的積極心理學的一些策略,他就是不停的給你提問,不停的找你探索,然后找你去希望能夠引導你說的更多。當然可能過程中會有一些相對機械死板的感覺,但在很多專業(yè)的場景,它確實能做的比普通的人會更好。它整個講話的內(nèi)容非常的專業(yè)和正面,實際上是能夠提供比較大的幫助和價值的。

騰訊科技:

您提到用心理學的策略,像精神分析這種學說的策略AI也能掌握嗎?

黃民烈:

這個問題非常好。我覺得有些流派的確不太適合AI。

在實踐上比較成功的是CBT,也就是認知行為療法。因為它有一套相對科學的理論和框架,然后基于這個理論框架,計算機也是比較容易實現(xiàn)的。但是精神分析可能就不太適合,因為它里邊很多是計算機不太容易去實現(xiàn)和模擬的一些地方。

AI治理的問題,兩年就可以初步解決

騰訊科技 :

總結(jié)下來,剛才的討論可以得到一個結(jié)論,就是現(xiàn)在目前水平的人工智能還沒有很強的自我意識。但是實際上它在應用上,人是很容易去把這個AI當成一個真實的人去對待,因此可能會引起很多潛在的倫理問題。您在開發(fā)情感軟件的過程之中,采用了什么樣的規(guī)避防范這類問題的手段?

黃民烈:

這是一個目前比較重要的事,即AI的倫理和治理。情感AI確實可能產(chǎn)生很多影響。比如如果我們?nèi)烁鶤I有越來越多情感連接的時候,是不是會弱化真實世界的社交和情感聯(lián)系?而這種真實世界的情感和聯(lián)系會不會對人類的繁衍都造成一定的影響?會降低出生率,結(jié)婚率,這都是非常有可能的,很現(xiàn)實的一些問題。所以我們怎么樣去把握好這個度,這個邊界在哪是非常重要的。

騰訊科技:

您提到的關(guān)于情感AI影響可能影響生育率和人類交往,從我自己個人去體驗,包括很多用戶反饋,ChatGPT表現(xiàn)的比人更有同理心,隨著它情感能力的增加,您估計AI對人際交往的影響到底能有多大?

黃民烈:

當情緒AI的能力越來越強的時候,肯定會對人的關(guān)系和社會組織會產(chǎn)生一定的影響。但這種影響的程度取決于說我們?nèi)绾稳ヒ龑Оl(fā)展的方向。

為了避免AI對社會化的破壞,從治理和能力層面上我們需要有一些約束。

比如過去我們有手機成癮、電腦成癮、游戲成癮,但我們不可能把游戲給禁掉。所以青少年怎么玩游戲,氪金上限是多少,都需要有些規(guī)范,我覺得AI的使用也是同樣的一個過程。

騰訊科技:

之前赫拉利做了一個演講,他覺得 AI可能對于人類文明最大的威脅,就是AI對于人的一種掌控,通過它建立新的話語體系去掌控人類的文明,而情感可能在更大程度上更加強了這樣的一個說服跟掌控的可能性。您覺得這個風險有多大?

黃民烈:

是這樣的?,F(xiàn)在比如說用ChatGPT去做教育的,他可能會回答出很多跟這種小孩子(應有)的價值觀和意識形態(tài)對不上的地方。比如說小孩子今天不想上學,我是不是就可以不去上學,他可能ChatGPT可能他就會回答說你不想上學就別上學了。如果這種形式普及的話,對下一代整體的成長都會產(chǎn)生比較大的一個負面的影響。

另一方面就是說我們知道 AI其實有了情感之后,也會有更復雜的能力策略。我們講的不好聽的叫PUA能力。包括我們現(xiàn)在講的AI詐騙,有了換臉的技術(shù)之后,詐騙的成功率馬上就提高了。那么情感也是一樣的,有了更強的情感能力之后濫用的可能性也有可能被進一步提高。

所以學界,企業(yè)界有前瞻視野的人很多都在做 AI的能力和安全限制的研究。

騰訊科技:

那您覺得這個規(guī)范應該以什么方式去制定?

黃民烈:

肯定需要是全球的學者一起努力去制定相關(guān)標準的。我們在中國在大模型安全和倫理規(guī)范上,屬于開展研究比較早的。

這主要涉及到幾個方面,第一個就是要建立相應的分類體系和標準和規(guī)范。我在安全上,在倫理上,在道德準則上,我們應該給AI建立什么樣的一個類別體系,它的標準和規(guī)范是什么,這些問題必須要說清楚。這樣的規(guī)則肯定需要計算機科學家,社會科學家,然后甚至是政治學家一起來參與進來研究。我們在清華也建立了一個基礎模型研究中心,有交叉的團隊來探索這個議題。

第二就是要有一些工具和系統(tǒng)的算法來幫我們做這種AI生成的檢測,包括做攻擊防御測試。這會有一些技術(shù)層面的東西在里頭。

第三就是我們要有評估的系統(tǒng),包括排行榜系統(tǒng)。通過競爭評估才能夠真正實現(xiàn)規(guī)范化治理。

騰訊科技:

您覺得完成這個治理體系大概需要多長時間?

黃民烈:

首先治理肯定是一個持續(xù)的過程,是個隨著動態(tài)的發(fā)展不斷的一個演進的過程。但是我認為我們在兩年內(nèi)能夠把這個體系建立的比較完善。

關(guān)鍵詞:

[責任編輯:xwzkw]

相關(guān)閱讀

当雄县| 双牌县| 泰宁县| 信宜市| 广饶县| 逊克县| 定边县| 新沂市| 百色市| 泗洪县| 怀集县| 宜川县| 四子王旗| 磐安县| 石城县| 惠州市| 东源县| 新野县| 高密市| 平邑县| 全州县| 曲阜市| 梁山县| 平湖市| 科尔| 宜宾县| 桂阳县| 沈阳市| 乌审旗| 南部县| 西平县| 江孜县| 龙江县| 蓬莱市| 昌宁县| 玉屏| 宜兰县| 鄂托克旗| 万全县| 四子王旗| 莫力|