
? 【新智元導(dǎo)讀】最近,來自NUS、UT Austin等機(jī)構(gòu)的研究人員創(chuàng)新性地提出了一種「拖拽式大語言模型」(DnD),它可以基于提示詞快速生成模型參數(shù),無需微調(diào)就能適應(yīng)任務(wù)。不僅效率最高提升12000倍,而且具備出色的零樣本泛化能力。
現(xiàn)在的大模型基本都具備零樣本泛化能力,但要在真實(shí)場(chǎng)景中做特定的適配,還是得花好幾個(gè)小時(shí)來對(duì)模型進(jìn)行微調(diào)。
即便是像LoRA這樣的參數(shù)高效方法,也只能緩解而不能消除每個(gè)任務(wù)所需的微調(diào)成本。
剛剛,包括尤洋教授在內(nèi)的來自新加坡國立大學(xué)、得克薩斯大學(xué)奧斯汀分校等機(jī)構(gòu)的研究人員,提出了一種全新的「拖拽式大語言模型」——Drag-and-Drop LLMs!
DnD是一種基于提示詞的參數(shù)生成器,能夠?qū)LM進(jìn)行無需訓(xùn)練的自適應(yīng)微調(diào)。
通過一個(gè)輕量級(jí)文本編碼器與一個(gè)級(jí)聯(lián)超卷積解碼器的組合,DnD能在數(shù)秒內(nèi),僅根據(jù)無標(biāo)簽的任務(wù)提示詞,生成針對(duì)該任務(wù)的LoRA權(quán)重矩陣。
顯然,對(duì)于那些需要快速實(shí)現(xiàn)模型專業(yè)化的場(chǎng)景,DnD可以提供一種相較于傳統(tǒng)微調(diào)方法更強(qiáng)大、靈活且高效的替代方案。
通過觀察,研究人員發(fā)現(xiàn),LoRA適配器無非是其訓(xùn)練數(shù)據(jù)的一個(gè)函數(shù):梯度下降會(huì)將基礎(chǔ)權(quán)重「拖拽」至一個(gè)特定任務(wù)的最優(yōu)狀態(tài)。
如果能夠直接學(xué)習(xí)從提示到權(quán)重的映射,那么就可以完全繞過梯度下降過程。
DnD通過兩個(gè)核心步驟獲得「拖拽」能力:準(zhǔn)備訓(xùn)練數(shù)據(jù)(左上)與訓(xùn)練參數(shù)生成器(右上)。
在準(zhǔn)備數(shù)據(jù)時(shí),將模型參數(shù)(權(quán)重)與特定數(shù)據(jù)集的條件(提示詞)進(jìn)行顯式配對(duì)。 在訓(xùn)練時(shí),DnD模型將條件作為輸入來生成參數(shù),并使用原始的LoRA參數(shù)作為監(jiān)督信號(hào)進(jìn)行學(xué)習(xí)。 基于這些洞見,團(tuán)隊(duì)提出了「拖拽式大語言模型」,它無需微調(diào)即可生成任務(wù)專屬的權(quán)重。
團(tuán)隊(duì)首先在多個(gè)不同數(shù)據(jù)集上分別訓(xùn)練并保存相應(yīng)的LoRA適配器。
為了賦予模型「拖拽」的能力,團(tuán)隊(duì)將這些數(shù)據(jù)集的提示詞與收集到的LoRA權(quán)重進(jìn)行隨機(jī)配對(duì),構(gòu)成DnD模型的訓(xùn)練數(shù)據(jù)——即「提示詞-參數(shù)」對(duì)。
參數(shù)生成器是一個(gè)由級(jí)聯(lián)卷積塊構(gòu)成的解碼器。
參數(shù)生成器的模塊細(xì)節(jié)如下:每個(gè)超卷積塊包含三個(gè)超卷積模塊,用于在不同維度上提取并融合特征信息。
訓(xùn)練時(shí),團(tuán)隊(duì)采用一個(gè)現(xiàn)成的文本編碼器提取提示詞的嵌入向量,并將其輸入生成器。
生成器會(huì)預(yù)測(cè)出模型權(quán)重,團(tuán)隊(duì)利用其與真實(shí)LoRA權(quán)重之間的均方誤差(MSE)損失來對(duì)其進(jìn)行優(yōu)化。
在推理階段,團(tuán)隊(duì)只需將來自全新數(shù)據(jù)集(訓(xùn)練中未見過)的提示詞輸入DnD,僅需一次前向傳播,即可獲得為該任務(wù)量身定制的參數(shù)。
零樣本學(xué)習(xí)效果
在新的(測(cè)試)數(shù)據(jù)集上的泛化能力。
在所有未曾見過的數(shù)據(jù)集上,DnD在準(zhǔn)確率上都顯著超越了那些用于訓(xùn)練的LoRA模型。
DnD能為數(shù)學(xué)、代碼和多模態(tài)問答等更復(fù)雜的任務(wù)生成參數(shù)。
在這些任務(wù)上依然展現(xiàn)出強(qiáng)大的零樣本學(xué)習(xí)能力。
DnD在多種任務(wù)上超越了基座LLM,展現(xiàn)出顯著的「拖拽」增強(qiáng)效果。
DnD能夠很好地?cái)U(kuò)展至更大的7B基座模型,并在更復(fù)雜的LiveCodeBench基準(zhǔn)測(cè)試中保持強(qiáng)勁性能。
通過利用已微調(diào)的LoRA作為訓(xùn)練數(shù)據(jù),DnD成功地在輸入提示詞與模型參數(shù)之間建立了聯(lián)系。
團(tuán)隊(duì)向DnD輸入其訓(xùn)練階段從未見過的數(shù)據(jù)集提示詞,讓它為這些新任務(wù)直接生成參數(shù),以此來檢驗(yàn)其零樣本學(xué)習(xí)能力。
DnD在權(quán)重空間中生成的參數(shù)與原始參數(shù)分布接近,并且在性能上表現(xiàn)良好。
實(shí)驗(yàn)結(jié)果表明,在零樣本測(cè)試集上,團(tuán)隊(duì)的方法相較于訓(xùn)練所用的LoRA模型的平均性能,取得了驚人的提升,并且能夠很好地泛化到多種真實(shí)世界任務(wù)和不同尺寸的LLM。
為了進(jìn)一步展示DnD的強(qiáng)大能力,團(tuán)隊(duì)將其與全量樣本微調(diào)(full-shot tuning)、少樣本學(xué)習(xí)(few-shot)以及上下文學(xué)習(xí)(in-context learning)進(jìn)行了對(duì)比。
令人驚訝的是,DnD的性能超越了LoRA全量微調(diào)的效果,同時(shí)速度快了2500倍。
雖然經(jīng)過更多輪次的迭代,全量微調(diào)的性能會(huì)超過DnD,但其代價(jià)是高達(dá)12000倍的推理延遲。
此外,在樣本數(shù)少于256個(gè)時(shí),DnD的性能穩(wěn)定地優(yōu)于少樣本學(xué)習(xí)和上下文學(xué)習(xí)。
尤其值得注意的是,少樣本學(xué)習(xí)和上下文學(xué)習(xí)都需要依賴帶標(biāo)簽的答案,而DnD僅僅需要無標(biāo)簽的提示詞。
DnD能夠達(dá)到與全量樣本相當(dāng)甚至更優(yōu)的性能,同時(shí)速度提高了2500-12000倍
數(shù)據(jù)分析咨詢請(qǐng)掃描二維碼
若不方便掃碼,搜微信號(hào):CDAshujufenxi
LSTM 模型輸入長度選擇技巧:提升序列建模效能的關(guān)鍵? 在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)家族中,長短期記憶網(wǎng)絡(luò)(LSTM)憑借其解決長序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報(bào)考條件詳解與準(zhǔn)備指南? ? 在數(shù)據(jù)驅(qū)動(dòng)決策的時(shí)代浪潮下,CDA 數(shù)據(jù)分析師認(rèn)證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計(jì)的實(shí)用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強(qiáng)大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實(shí)施重大更新。 此次更新旨在確保認(rèn) ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務(wù)的價(jià)值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡稱 BI)深度融合的時(shí)代,BI ...
2025-07-10SQL 在預(yù)測(cè)分析中的應(yīng)用:從數(shù)據(jù)查詢到趨勢(shì)預(yù)判? ? 在數(shù)據(jù)驅(qū)動(dòng)決策的時(shí)代,預(yù)測(cè)分析作為挖掘數(shù)據(jù)潛在價(jià)值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢結(jié)束后:分析師的收尾工作與價(jià)值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢結(jié)束)并非工作的終點(diǎn),而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報(bào)考到取證的全攻略? 在數(shù)字經(jīng)濟(jì)蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢(shì)性檢驗(yàn):捕捉數(shù)據(jù)背后的時(shí)間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢(shì)性檢驗(yàn)如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數(shù)據(jù)類型:時(shí)間維度的精準(zhǔn)切片? ? 在數(shù)據(jù)的世界里,時(shí)間是最不可或缺的維度之一,而year_month數(shù)據(jù)類型就像一把精準(zhǔn) ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應(yīng)用與實(shí)戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認(rèn)證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗(yàn):數(shù)據(jù)趨勢(shì)與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領(lǐng)域中,準(zhǔn)確捕捉數(shù)據(jù)的趨勢(shì)變化以及識(shí)別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認(rèn)證作為國內(nèi)權(quán)威的數(shù)據(jù)分析能力認(rèn)證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應(yīng)對(duì)策略? 長短期記憶網(wǎng)絡(luò)(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的一種變體,憑借獨(dú)特的門控機(jī)制,在 ...
2025-07-07統(tǒng)計(jì)學(xué)方法在市場(chǎng)調(diào)研數(shù)據(jù)中的深度應(yīng)用? 市場(chǎng)調(diào)研是企業(yè)洞察市場(chǎng)動(dòng)態(tài)、了解消費(fèi)者需求的重要途徑,而統(tǒng)計(jì)學(xué)方法則是市場(chǎng)調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書考試全攻略? 在數(shù)字化浪潮席卷全球的當(dāng)下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動(dòng)力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關(guān)鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準(zhǔn)確性的基礎(chǔ) ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動(dòng)力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價(jià)值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03