香蕉在线视频网站,国产视频综合,亚洲综合五月天欧美,成人亚洲综合,日本欧美高清全视频,国产视频黄色,欧美高清在线播放

LLM進入“拖拽時代”!只靠Prompt,幾秒定制一個大模型,效率飆升12000倍

現(xiàn)在的大模型基本都具備零樣本泛化能力,但要在真實場景中做特定的適配,還是得花好幾個小時來對模型進行微調(diào)。

即便是像LoRA這樣的參數(shù)高效方法,也只能緩解而不能消除每個任務(wù)所需的微調(diào)成本。

剛剛,包括尤洋教授在內(nèi)的來自新加坡國立大學(xué)、得克薩斯大學(xué)奧斯汀分校等機構(gòu)的研究人員,提出了一種全新的「拖拽式大語言模型」——Drag-and-Drop LLMs!

DnD是一種基于提示詞的參數(shù)生成器,能夠?qū)?span style="font-weight: 700;">LLM進行無需訓(xùn)練的自適應(yīng)微調(diào)。

通過一個輕量級文本編碼器與一個級聯(lián)超卷積解碼器的組合,DnD能在數(shù)秒內(nèi),僅根據(jù)無標(biāo)簽的任務(wù)提示詞,生成針對該任務(wù)的LoRA權(quán)重矩陣。

顯然,對于那些需要快速實現(xiàn)模型專業(yè)化的場景,DnD可以提供一種相較于傳統(tǒng)微調(diào)方法更強大、靈活且高效的替代方案。

總結(jié)來說,DnD的核心優(yōu)勢如下:

極致效率:其計算開銷比傳統(tǒng)的全量微調(diào)低12,000倍。

卓越性能:在零樣本學(xué)習(xí)的常識推理、數(shù)學(xué)、編碼及多模態(tài)基準(zhǔn)測試中,其性能比最強大的、需要訓(xùn)練的LoRA模型還要高出30%。

強大泛化:僅需無標(biāo)簽的提示詞,即可在不同領(lǐng)域間展現(xiàn)出強大的泛化能力。

DnD實現(xiàn)方法

通過觀察,研究人員發(fā)現(xiàn),LoRA適配器無非是其訓(xùn)練數(shù)據(jù)的一個函數(shù):梯度下降會將基礎(chǔ)權(quán)重「拖拽」至一個特定任務(wù)的最優(yōu)狀態(tài)。

如果能夠直接學(xué)習(xí)從提示到權(quán)重的映射,那么就可以完全繞過梯度下降過程。

DnD通過兩個核心步驟獲得「拖拽」能力:準(zhǔn)備訓(xùn)練數(shù)據(jù)(左上)與訓(xùn)練參數(shù)生成器(右上)。

在準(zhǔn)備數(shù)據(jù)時,將模型參數(shù)(權(quán)重)與特定數(shù)據(jù)集的條件(提示詞)進行顯式配對。

在訓(xùn)練時,DnD模型將條件作為輸入來生成參數(shù),并使用原始的LoRA參數(shù)作為監(jiān)督信號進行學(xué)習(xí)。

基于這些洞見,團隊提出了「拖拽式大語言模型」,它無需微調(diào)即可生成任務(wù)專屬的權(quán)重。

團隊首先在多個不同數(shù)據(jù)集上分別訓(xùn)練并保存相應(yīng)的LoRA適配器。

為了賦予模型「拖拽」的能力,團隊將這些數(shù)據(jù)集的提示詞與收集到的LoRA權(quán)重進行隨機配對,構(gòu)成DnD模型的訓(xùn)練數(shù)據(jù)——即「提示詞-參數(shù)」對。

參數(shù)生成器是一個由級聯(lián)卷積塊構(gòu)成的解碼器。

參數(shù)生成器的模塊細節(jié)如下:每個超卷積塊包含三個超卷積模塊,用于在不同維度上提取并融合特征信息。

訓(xùn)練時,團隊采用一個現(xiàn)成的文本編碼器提取提示詞的嵌入向量,并將其輸入生成器。

生成器會預(yù)測出模型權(quán)重,團隊利用其與真實LoRA權(quán)重之間的均方誤差(MSE)損失來對其進行優(yōu)化。

在推理階段,團隊只需將來自全新數(shù)據(jù)集(訓(xùn)練中未見過)的提示詞輸入DnD,僅需一次前向傳播,即可獲得為該任務(wù)量身定制的參數(shù)。