原標題:今年高考英語AI得分134,復(fù)旦武大校友這項研究有點意思
在挑戰(zhàn)寫語文作文后,AI現(xiàn)在又盯上了高考英語。
結(jié)果好家伙,今年高考英語卷(全國甲卷)一上手,就拿了134分。
而且不是偶然的超常發(fā)揮。
在2018-2021年的10套真題測試中,AI的分數(shù)都在125分以上,最高紀錄為138.5分,聽力和閱讀理解還拿過滿分。
這就是由CMU學(xué)者提出的,高考英語測試AI系統(tǒng)Qin。
它的參數(shù)量只有GPT-3的16分之一,平均成績卻比GPT-3高出15分。
其背后的秘訣名叫重構(gòu)預(yù)訓(xùn)練 (reStructured Pre-training),是作者提出的一種新學(xué)習(xí)范式。
具體來看,就是把維基百科、YouTube等平臺的信息重新提取重構(gòu),再喂給AI進行訓(xùn)練,由此讓AI具有更強的泛化能力。
兩位學(xué)者用足足100多頁的論文,深入解釋了這一新范式。
那么,這一范式到底講了什么?
我們來深扒一下~
什么是重構(gòu)預(yù)訓(xùn)練?
論文題目很簡單,就叫reStructured Pre-training(重構(gòu)預(yù)訓(xùn)練,RST)。
核心觀點凝練來說就是一句話,要重視數(shù)據(jù)??!
作者認為,這個世界上有價值的信息無處不在,而目前的AI系統(tǒng)并沒有充分利用數(shù)據(jù)中的信息。
比如像維基百科,Github,里面包含了各種可以供模型學(xué)習(xí)的信號:實體,關(guān)系,文本摘要,文本主題等。這些信號之前由于技術(shù)瓶頸都沒有被考慮。
所以,作者在本文中提出了一種方法,可以用神經(jīng)網(wǎng)絡(luò)統(tǒng)一地存儲和訪問包含各種類型信息的數(shù)據(jù)。
他們以信號為單位、結(jié)構(gòu)化地表示數(shù)據(jù),這很類似于數(shù)據(jù)科學(xué)里我們常常將數(shù)據(jù)構(gòu)造成表或JSON格式,然后通過專門的語言(如SQL)來檢索所需的信息。
具體來看,這里的信號,其實就是指數(shù)據(jù)中的有用信息。
比如在“莫扎特生于薩爾茨堡”這句話中,“莫扎特”、“薩爾茨堡”就是信號。
然后,就需要在各種平臺上挖掘數(shù)據(jù)、提取信號,作者把這個過程比作了從礦山里尋寶。
接下來,利用prompt方法,就能將這些來自不同地方的信號統(tǒng)一成一種形式。
最后,再將這些重組的數(shù)據(jù)集成并存儲到語言模型中。
這樣一來,該研究就能從10個數(shù)據(jù)源中,統(tǒng)一26種不同類型的信號,讓模型獲得很強的泛化能力。
結(jié)果表明,在多個數(shù)據(jù)集中,RST-T、RST-A零樣本學(xué)習(xí)的表現(xiàn),都優(yōu)于GPT-3的少樣本學(xué)習(xí)性能。
而為了更進一步測試新方法的表現(xiàn),作者還想到了讓AI做高考題的方法。
他們表示,現(xiàn)在很多工作方法走的都是漢化GPT-3的思路,在評估的應(yīng)用場景上也是跟隨OpenAI、DeepMind。
比如GLUE測評基準、蛋白質(zhì)折疊評分等。
基于對當下AI模型發(fā)展的觀察,作者認為可以開辟出一條新的賽道試試,所以就想到了用高考給AI練練手。
他們找來了前后幾年共10套試卷進行標注,請高中老師來進行打分。
像聽力/識圖理解這樣的題目,還找來機器視覺、語音識別領(lǐng)域的學(xué)者幫忙。
最終,煉出了這套高考英語AI模型,也可以叫她為Qin。
從測試結(jié)果可以看到,Qin絕對是學(xué)霸級別了,10套卷子成績都高于T0pp和GPT-3。
此外,作者還提出了高考benchmark。
他們覺得當下很多評價基準的任務(wù)都很單一,大多沒有實用價值,和人類情況對比也比較困難。
而高考題目既涵蓋了各種各樣的知識點,還直接有人類分數(shù)來做比對,可以說是一箭雙雕了。
NLP的第五范式?
如果從更深層次來看,作者認為,重構(gòu)預(yù)訓(xùn)練或許會成為NLP的一種新范式,即把預(yù)訓(xùn)練/微調(diào)過程視為數(shù)據(jù)存儲/訪問過程。
此前,作者將NLP的發(fā)展總結(jié)成了4種范式:
P1. 非神經(jīng)網(wǎng)絡(luò)時代的完全監(jiān)督學(xué)習(xí) (Fully Supervised Learning, Non-Neural Network)
P2. 基于神經(jīng)網(wǎng)絡(luò)的完全監(jiān)督學(xué)習(xí) (Fully Supervised Learning, Neural Network)
P3. 預(yù)訓(xùn)練,精調(diào)范式 (Pre-train, Fine-tune)
P4. 預(yù)訓(xùn)練,提示,預(yù)測范式(Pre-train, Prompt, Predict)
但是基于當下對NLP發(fā)展的觀察,他們認為或許之后可以以一種data-centric的方式來看待問題。
也就是,預(yù)訓(xùn)/精調(diào)、few-shot/zero-shot等概念的差異化會更加模糊,核心只關(guān)注一個點——
有價值的信息有多少、能利用多少。
此外,他們還提出了一個NLP進化假說。
其中的核心思想是,技術(shù)發(fā)展方向總是順著這樣的——做更少的事實現(xiàn)更好、更通用的系統(tǒng)。
作者認為,NLP經(jīng)歷了特征工程、架構(gòu)工程、目標工程、提示工程,當下正在朝著數(shù)據(jù)工程方向發(fā)展。
復(fù)旦武大校友打造
本篇論文的一作為Weizhe Yuan。
她本科畢業(yè)于武漢大學(xué),后赴卡內(nèi)基梅隆大學(xué)讀研,學(xué)習(xí)數(shù)據(jù)科學(xué)專業(yè)。
研究方向集中在NLP任務(wù)的文本生成和評估。
去年,她被AAAI 2022、NeurIPS 2021分別接收了一篇論文,還獲得了ACL 2021 Best Demo Paper Award。
論文的通訊作者為卡內(nèi)基梅隆大學(xué)語言技術(shù)研究所(LTI)的博士后研究員劉鵬飛。
他于2019年在復(fù)旦大學(xué)計算機系獲得博士學(xué)位,師從邱錫鵬教授、黃萱菁教授。
研究興趣包括NLP模型可解釋性、遷移學(xué)習(xí)、任務(wù)學(xué)習(xí)等。
博士期間,他包攬了各種計算機領(lǐng)域的獎學(xué)金,包括IBM博士獎學(xué)金、微軟學(xué)者獎學(xué)金、騰訊人工智能獎學(xué)金、百度獎學(xué)金。
One More Thing
值得一提的是,劉鵬飛在和我們介紹這項工作時,直言“最初我們就沒打算拿去投稿”。
這是因為他們不想讓會議論文的格式限制了構(gòu)思論文的想象力。
我們決定把這篇論文當作一個故事來講,并給“讀者”一種看電影的體驗。
這也是為什么我們在第三頁,設(shè)置了一個“觀影模式“的全景圖。
就是為了帶著大家去了解NLP發(fā)展的歷史,以及我們所展望的未來是怎樣的,讓每一個研究者都能有一定的代入感,感受到自己去帶領(lǐng)著預(yù)訓(xùn)練語言模型們(PLMs)通過礦山尋寶走向更好明天的一個過程。
論文結(jié)尾,還藏了一些驚喜彩蛋。
比如PLMs主題表情包:
還有結(jié)尾的插畫:
這么看,100多頁的論文讀起來也不會累了