近日,圍繞熱門科技話題ChatGPT,科技日報記者專訪了歐洲科學院院士、德國比勒菲爾德大學洪堡人工智能教席教授金耀初。金教授同時兼任英國薩里大學計算系“計算智能”講席教授 、IEEE計算智能學會候任理事長,曾任《IEEE認知與發(fā)育系統(tǒng)匯刊》主編等職。
生成式模型的重大進展
(資料圖片僅供參考)
談到ChatGPT最核心的東西,金耀初表示,ChatGPT所代表的技術(shù)是第三波人工智能技術(shù)取得的一個重大進展。它基于生成式預訓練Transformer模型,采用了“自注意力機制”。與傳統(tǒng)的判別式模型相比,生成式模型的最大特點是直接學習訓練數(shù)據(jù)本身的特點,因而能更有效地學習大容量的樣本,特別是海量的語言、視覺信息。
傳統(tǒng)的語言處理模型一般只能根據(jù)字詞的前后相鄰詞語來找它們之間的關(guān)系,因此有很大的局限性。Transformer引入了自注意力機制后,它就能很靈活地找出不單是某一個句子,而是不同句子,甚至是整篇文章或不同的文章之間詞的相互關(guān)系,學習能力就增強了很多。
橫空出世非一日之功
對于ChatGPT的橫空出世,金耀初強調(diào)這僅僅是大眾的感受。從科研的角度看,ChatGPT也是一步一步演進而來的。根據(jù)OpenAI發(fā)表的論文,ChatGPT是花了很長時間,用了各種學習方法不斷訓練和微調(diào)出來的。生成式模型給出的答案并不是人們事先給它的訓練數(shù)據(jù),而是模型生成出來的,所以很難保證百分之百正確。ChatGPT在訓練過程中用到非常多的最新的學習技術(shù)。例如,無監(jiān)督學習、有監(jiān)督學習、多任務學習、小樣本學習、自監(jiān)督學習等。
此外,它還加入了基于人類反饋的強化學習,以獲得與人類對齊、共情能力。通過人類評價,即給它生成的答案打分來選擇一個最佳的答案。這個過程實際上是一個強化學習過程,也就是對原來的模型進行微調(diào)。其他AI模型可能沒有像ChatGPT這樣,用大量的人類反饋來使得模型能產(chǎn)生更加符合人類期待的回答,相應的體驗就會有差距。
尚不具備自主的“心智”
金耀初談到,作為一個從文本到文本的對話系統(tǒng),ChatGPT最強的地方是對自然語言的充分學習,生成的文本更加“流暢”并符合人類體驗,這是一個重大的技術(shù)創(chuàng)新。但值得注意的是,生成式機器學習模型有很多,比如從文本到語音信息,或者文本到圖像信息,這些方面ChatGPT的表現(xiàn)可能就沒那么好了。這是它的一個局限性。
另一方面,目前ChatGPT訓練的數(shù)據(jù)截至2021年,沒有訓練過的東西,它是不可能準確回答出來的。換句話說,目前的模型不具備創(chuàng)造新知識的能力。ChatGPT回答問題時用的是推理。它不是那種在數(shù)據(jù)庫中搜索答案的概念。生成式模型是根據(jù)問題本身聯(lián)想出一個答案。這個答案是模型“學習消化”后產(chǎn)生出來的東西,不是原始的數(shù)據(jù)。嚴格意義上來說,模型本身甚至不知道這個答案的真正含義,它也不能保證答案肯定是對的。
ChatGPT不是“萬能”的
金耀初認為,ChatGPT離真正的專業(yè)應用還有一定的距離?,F(xiàn)在大家感覺很新奇,都在嘗試玩一玩。有的人甚至以為ChatGPT什么都能干,可以很快用在自動駕駛之類的很多應用上,這其實是誤解。自動駕駛的重點不是文本到文本的問題,純粹的生成式模型是不夠的。它需要其他判別式的機器學習模型,特別是實時場景的識別。
以現(xiàn)在熱議的醫(yī)療服務為例,盡管ChatGPT在美國執(zhí)業(yè)醫(yī)師資格考試中取得不錯的成績,但真實情況下人們會用ChatGPT來代替醫(yī)師進行診療嗎?至少目前還不行,因為無法保證它的答案百分之百是正確的。有人說ChatGPT有時會一本正經(jīng)地胡說八道,這樣的描述是比較中肯的,人們不能忽視這種風險。
期待未來更多突破
金耀初表示,這一波人工智能可能不會像第一波和第二波人工智能浪潮那樣很快偃旗息鼓。它會繼續(xù)發(fā)展下去,未來三五年,人工智能領(lǐng)域可能還會涌現(xiàn)一些令人吃驚的突破。很多基于ChatGPT的新的想法或技術(shù)或會涌現(xiàn),并在此基礎(chǔ)上找到真正好的細分領(lǐng)域的應用。
至于人工智能和機器人的結(jié)合,金耀初強調(diào),從某種意義上來說,這一直是人工智能研究的重點之一。現(xiàn)在ChatGPT與人對話這么流暢,如果把它與數(shù)字虛擬人技術(shù)結(jié)合起來,一般人可能很難分辨出計算機屏幕里回答問題的是真人還是一個數(shù)字人。當然,未來的發(fā)展過程中會涉及很多人工智能的本質(zhì)問題,包括信任、責任、倫理、法律問題等。樂觀地看,ChatGPT等人工智能應用的影響力急劇擴大,反過來會在一定程度上推動上述問題的解決。