哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一張RTX 2080Ti搞定大模型訓(xùn)練!算力節(jié)省136倍!

CVer ? 來源:機(jī)器之心 ? 2023-01-03 11:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

任何 transformer 變體、任何數(shù)據(jù)集都通用。

在一塊消費(fèi)級 GPU 上只用一天時(shí)間訓(xùn)練,可以得到什么樣的 BERT 模型?

最近一段時(shí)間,語言模型再次帶火了 AI 領(lǐng)域。預(yù)訓(xùn)練語言模型的無監(jiān)督訓(xùn)練屬性使其可以在海量樣本基礎(chǔ)上進(jìn)行訓(xùn)練,并獲得大量語義語法知識,不論分類還是問答,似乎沒有 AI 解決不了的問題。

然而,大模型既帶來了技術(shù)突破,也對算力提出了無窮無盡的需求。

最近,來自馬里蘭大學(xué)的 Jonas Geiping、Tom Goldstein 討論了所有關(guān)于擴(kuò)大計(jì)算規(guī)模的研究,深入探討了縮小計(jì)算規(guī)模的改進(jìn)方向。他們的研究引發(fā)了機(jī)器學(xué)習(xí)社區(qū)的關(guān)注。

在新研究中,作者對于單塊消費(fèi)級 GPU(RTX 2080Ti)能訓(xùn)練出什么樣的語言模型進(jìn)行了討論,并獲得了令人興奮的結(jié)果。讓我們看看它是如何實(shí)現(xiàn)的:

模型規(guī)模的擴(kuò)展

在自然語言處理(NLP)領(lǐng)域,基于 Transformer 架構(gòu)的預(yù)訓(xùn)練模型已經(jīng)成為主流,并帶來諸多突破性進(jìn)展。很大程度上,這些模型性能強(qiáng)大的原因是它們的規(guī)模很大。隨著模型參數(shù)量和數(shù)據(jù)量的增長,模型的性能會不斷提高。因此,NLP 領(lǐng)域內(nèi)掀起了一場增大模型規(guī)模的競賽。

然而,很少有研究人員或從業(yè)者認(rèn)為他們有能力訓(xùn)練大型語言模型(LLM),通常只有行業(yè)內(nèi)的科技巨頭擁有訓(xùn)練 LLM 的資源。

為了扭轉(zhuǎn)這一趨勢,來自馬里蘭大學(xué)的研究者進(jìn)行了一番探索。

論文《Cramming: Training a Language Model on a Single GPU in One Day》:

d9c064ee-8a02-11ed-bfe3-dac502259ad0.jpg

論文鏈接:https://arxiv.org/abs/2212.14034

這個(gè)問題對于大多數(shù)研究人員和從業(yè)者來說具有重要意義,因?yàn)檫@將成為模型訓(xùn)練成本的參考,并有望打破 LLM 訓(xùn)練成本超高的瓶頸。該研究的論文迅速在推特上引發(fā)關(guān)注和討論。

d9cf5918-8a02-11ed-bfe3-dac502259ad0.png

IBM 的 NLP 研究專家 Leshem Choshen 在推特上評價(jià)道:「這篇論文總結(jié)了所有你能想到的大模型訓(xùn)練 trick?!?/p>

d9e0d062-8a02-11ed-bfe3-dac502259ad0.png

馬里蘭大學(xué)的研究者認(rèn)為:如果按比例縮小的模型預(yù)訓(xùn)練是大型預(yù)訓(xùn)練的可行模擬,那么這將開啟一系列目前難以實(shí)現(xiàn)的大規(guī)模模型的進(jìn)一步學(xué)術(shù)研究。

此外,該研究嘗試對過去幾年 NLP 領(lǐng)域的整體進(jìn)展進(jìn)行基準(zhǔn)測試,而不僅僅局限于模型規(guī)模的影響。

該研究創(chuàng)建了一項(xiàng)稱為「Cramming」的挑戰(zhàn) —— 在測試前一天學(xué)習(xí)整個(gè)語言模型。研究者首先分析了訓(xùn)練 pipeline 的方方面面,以了解哪些修改可以實(shí)際提高小規(guī)模模擬模型的性能。并且,該研究表明,即使在這種受限環(huán)境中,模型性能也嚴(yán)格遵循在大型計(jì)算環(huán)境中觀察到的擴(kuò)展定律。

雖然較小的模型架構(gòu)可以加快梯度計(jì)算,但隨著時(shí)間的推移,模型改進(jìn)的總體速度幾乎保持不變。該研究嘗試?yán)脭U(kuò)展定律在不影響模型大小的情況下通過提高梯度計(jì)算的有效率獲得性能提升。最后,該研究成功訓(xùn)練出性能可觀的模型 —— 在 GLUE 任務(wù)上接近甚至超過 BERT—— 而且訓(xùn)練成本很低。

資源有限

為了模擬普通從業(yè)者和研究人員的資源環(huán)境,該研究首先構(gòu)建了一個(gè)資源受限的研究環(huán)境:

一個(gè)任意大小的基于 transformer 的語言模型,完全從頭開始使用掩碼語言建模(masked-language modeling)進(jìn)行訓(xùn)練;

pipeline 中不能包含現(xiàn)有的預(yù)訓(xùn)練模型;

任何原始文本(不包括下游數(shù)據(jù))都可以包含在訓(xùn)練中,這意味著可以通過明智地選擇如何以及何時(shí)對數(shù)據(jù)進(jìn)行采樣來實(shí)現(xiàn)加速,前提是采樣機(jī)制不需要預(yù)訓(xùn)練模型;

原始數(shù)據(jù)的下載和預(yù)處理不計(jì)入總預(yù)算,這里的預(yù)處理包括基于 CPU 的 tokenizer 構(gòu)造、tokenization 和 filtering,但不包括表征學(xué)習(xí);

訓(xùn)練僅在單塊 GPU 上進(jìn)行 24 小時(shí);

下游性能在 GLUE 上進(jìn)行評估,GLUE 上的下游微調(diào)僅限于僅使用下游任務(wù)的訓(xùn)練數(shù)據(jù)進(jìn)行簡單訓(xùn)練(5 個(gè) epoch 或者更少),并且需要使用為所有 GLUE 任務(wù)設(shè)置的全局超參數(shù),下游微調(diào)不計(jì)算在總預(yù)算中。

該研究與一些經(jīng)典大模型的具體訓(xùn)練設(shè)置比較如下表所示:

d9efb37a-8a02-11ed-bfe3-dac502259ad0.png

改進(jìn)方法

研究人員實(shí)施并測試了已有工作提出的一些修改方向,包括通用實(shí)現(xiàn)和初始數(shù)據(jù)設(shè)置,并嘗試了修改架構(gòu)、訓(xùn)練以及改動數(shù)據(jù)集的方法。

實(shí)驗(yàn)在 PyTorch 中進(jìn)行,不使用特質(zhì)化的實(shí)現(xiàn)以盡量公平,所有內(nèi)容都保留在 PyTorch 框架的實(shí)現(xiàn)級別上,只允許可應(yīng)用于所有組件的自動運(yùn)算符融合,另外只有在選擇了最終的架構(gòu)變體之后,才會重新啟用高效注意力內(nèi)核。

d9ffe3d0-8a02-11ed-bfe3-dac502259ad0.jpg

圖 1:不同 transformer 架構(gòu)變體 MLM 損失函數(shù)與 token 對比的情況。左:全局視圖。右圖:放大到 10e8 和更多 token 情況下。所有模型都用相同算力成本訓(xùn)練,我們可以看到:通過架構(gòu)重塑實(shí)現(xiàn)的改進(jìn)微乎其微。

有關(guān)提升性能,我們最先想到的方法肯定是修改模型架構(gòu)。從直覺上,較小 / 較低容量的模型似乎在一日一卡式的訓(xùn)練中是最優(yōu)的。然而在研究了模型類型與訓(xùn)練效率之間的關(guān)系后,研究人員發(fā)現(xiàn)縮放法則為縮小規(guī)模設(shè)置了巨大的障礙。每個(gè) token 的訓(xùn)練效率在很大程度上取決于模型大小,而不是 transformer 的類型。

此外,較小的模型學(xué)習(xí)效率較低,這在很大程度上減緩了吞吐量的增加。幸運(yùn)的是,在相同大小的模型中,訓(xùn)練效率幾乎保持不變這一事實(shí),意味著我們可以在參數(shù)量類似的架構(gòu)中尋找合適的,主要根據(jù)影響單個(gè)梯度步驟的計(jì)算時(shí)間來做出設(shè)計(jì)選擇。

da100f80-8a02-11ed-bfe3-dac502259ad0.jpg

圖 2:學(xué)習(xí)率 Schedule。盡管在全局范圍內(nèi)行為相似,但在中間的放大圖里可以看到差異確實(shí)存在。

在該工作中,作者研究了訓(xùn)練超參數(shù)對 BERT-base 架構(gòu)的影響??梢岳斫獾氖?,原始 BERT 訓(xùn)練方法的模型在 Cramming 式訓(xùn)練要求中的表現(xiàn)不佳,因此研究人員重新審視了一些標(biāo)準(zhǔn)選擇。

作者也研究了優(yōu)化數(shù)據(jù)集的思路。擴(kuò)展法則阻礙了通過架構(gòu)修改取得重大收益的方式(超出計(jì)算效率),但縮放定律并不妨礙我們在更好的數(shù)據(jù)上進(jìn)行訓(xùn)練。如果想在在每秒訓(xùn)練更多的 token,我們應(yīng)該尋求在更好的 token 上訓(xùn)練。

da1c92e6-8a02-11ed-bfe3-dac502259ad0.jpg

圖 3:在 bookcorpus-wikipedia 數(shù)據(jù)的 Cramming 式訓(xùn)練中訓(xùn)練的模型的詞匯量與 GLUE 分?jǐn)?shù)和 MNLI 準(zhǔn)確性。

在 GLUE 上的表現(xiàn)

研究人員系統(tǒng)地評估了 GLUE 基準(zhǔn)的性能和 WNLI,并注意到在前面的部分中只使用了 MNLI (m),并且沒有根據(jù)完整的 GLUE 分?jǐn)?shù)調(diào)整超參數(shù)。在新研究中對于 BERT-base 作者微調(diào)了 5 個(gè) epoch 的所有數(shù)據(jù)集,batch size 為 32,學(xué)習(xí)率為 2 × 10-5。對于 Cramming 訓(xùn)練的模型這不是最優(yōu)的,其可以從 16 的 batch size 和 4 × 10?5 的學(xué)習(xí)率以及余弦衰減中獲得微小的改進(jìn)(此設(shè)置不會改進(jìn)預(yù)訓(xùn)練的 BERT check point)。

表 3 和表 4 描述了此設(shè)置在 GLUE 下游任務(wù)上的性能。作者比較了原始的 BERT-base check point、在達(dá)到算力上限后停止的 BERT 預(yù)訓(xùn)練設(shè)置、Izsak 等人 2021 年研究中描述的設(shè)置和修改后的設(shè)置,為每塊 GPU 設(shè)置訓(xùn)練一天??傮w而言,性能出奇地好,尤其是對于 MNLI、QQP、QNLI 和 SST-2 等較大的數(shù)據(jù)集,下游微調(diào)可以消除完整 BERT 模型和 Cramming 設(shè)置變體之間的剩余差異。

此外,作者發(fā)現(xiàn)新方法與算力有限的普通 BERT 訓(xùn)練及 Izsak 等人描述的方法相比都有很大改進(jìn)。對于 Izsak 等人的研究,其描述的方法最初是為一個(gè)完整的 8 GPU 刀片服務(wù)器設(shè)計(jì)的,并且在新的場景中,將其中的 BERT-large 模型壓縮到較小的 GPU 上是導(dǎo)致大部分性能下降的原因。

da2ae74c-8a02-11ed-bfe3-dac502259ad0.jpg

表格 3:基線 BERT 與 Cramming 版本模型的 GLUE-dev 性能比較。其中所有任務(wù)的超參數(shù)都是固定的,epoch 限制為 5 個(gè),缺失值為 NaN。是為 8 GPU 刀片服務(wù)器設(shè)計(jì)的,而在這里,所有計(jì)算被塞進(jìn)了一塊 GPU。

da38d7da-8a02-11ed-bfe3-dac502259ad0.jpg

表格 4:基線 BERT 與填充模型的 GLUE-dev 性能比較。

總體而言,使用論文中的方法,訓(xùn)練結(jié)果已經(jīng)非常接近原版 BERT,但要知道后者使用的總 FLOPS 是新方法 45-136 倍(在 16 塊 TPU 上要花費(fèi)四天時(shí)間)。而當(dāng)訓(xùn)練時(shí)間延長 16 倍時(shí)(在 8 塊 GPU 上訓(xùn)練兩天),新方法的性能實(shí)際上比原始 BERT 提高了很多,達(dá)到了 RoBERTa 的水平。

總結(jié)

在該工作中,人們討論了基于 transformer 的語言模型在計(jì)算量非常有限的環(huán)境中可以實(shí)現(xiàn)多少性能,值得慶幸的是,幾條修改方向可以讓我們在 GLUE 上獲得不錯(cuò)的下游性能。研究人員表示,希望這項(xiàng)工作可以為進(jìn)一步的改進(jìn)提供一個(gè)基線,并進(jìn)一步給近年來為 transformer 架構(gòu)提出的許多改進(jìn)和技巧提供理論支撐。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5271

    瀏覽量

    136069
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    630

    瀏覽量

    14721
  • 算力
    +關(guān)注

    關(guān)注

    2

    文章

    1673

    瀏覽量

    16833
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3771

    瀏覽量

    5272

原文標(biāo)題:重磅!一張RTX 2080Ti搞定大模型訓(xùn)練!算力節(jié)省136倍!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    聯(lián)合華為!國產(chǎn)大模型登頂全球,0.1元一張

    被海外巨頭壟斷的背景下,中國團(tuán)隊(duì)首次用純國產(chǎn)底座,訓(xùn)練出達(dá)到世界領(lǐng)先水平的多模態(tài)SOTA模型。 ? ?
    的頭像 發(fā)表于 01-17 00:48 ?1.3w次閱讀
    聯(lián)合華為!國產(chǎn)大<b class='flag-5'>模型</b>登頂全球,0.1元<b class='flag-5'>一張</b>圖

    監(jiān)控的下半場:從基礎(chǔ)設(shè)施報(bào)警到精算師

    摘要: 在十萬卡集群與萬億參數(shù)模型時(shí)代,基礎(chǔ)設(shè)施的穩(wěn)定性直接決定了模型訓(xùn)練的邊際成本。當(dāng)單次訓(xùn)練成本高達(dá)千萬美元時(shí),監(jiān)控系統(tǒng)不再是簡單的報(bào)警,而是衡量
    的頭像 發(fā)表于 03-18 11:13 ?395次閱讀

    科大訊飛正式發(fā)布基于全國產(chǎn)訓(xùn)練的星火X2大模型

    這次面向關(guān)鍵行業(yè)落地的實(shí)用化升級,標(biāo)志著我國基于全國產(chǎn)訓(xùn)練的大模型底座在算法和工程創(chuàng)新方面邁入新階段。星火X2在實(shí)現(xiàn)通用能力全面升級的同時(shí),更加專注于教育、醫(yī)療、汽車、智能體等高專
    的頭像 發(fā)表于 02-25 10:05 ?939次閱讀

    訓(xùn)練到推理:大模型需求的新拐點(diǎn)已至

    在大模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點(diǎn)主要集中在大模型訓(xùn)練所需的投入。個(gè)萬億參數(shù)大
    的頭像 發(fā)表于 02-05 16:07 ?1031次閱讀
    從<b class='flag-5'>訓(xùn)練</b>到推理:大<b class='flag-5'>模型</b><b class='flag-5'>算</b><b class='flag-5'>力</b>需求的新拐點(diǎn)已至

    工信部力推:國產(chǎn)訓(xùn)練芯片與異構(gòu)引領(lǐng)AI新征程

    部將以落實(shí)《實(shí)施意見》為抓手,推動人工智能產(chǎn)業(yè)高質(zhì)量發(fā)展,技術(shù)創(chuàng)新是重點(diǎn),突破訓(xùn)練芯片、異構(gòu)等關(guān)鍵技術(shù)是關(guān)鍵。 ? 訓(xùn)練芯片:AI模型
    的頭像 發(fā)表于 01-21 14:11 ?1.1w次閱讀

    國產(chǎn)首證具身大腦模型訓(xùn)練實(shí)力:摩爾線程聯(lián)合智源研究院完成RoboBrain 2.5全流程訓(xùn)練

    集群 ,成功完成智源自研具身大腦模型 RoboBrain 2.5 的 全流程訓(xùn)練 。 這是行業(yè)內(nèi)首次驗(yàn)證國產(chǎn)集群在具身智能大
    的頭像 發(fā)表于 01-14 09:05 ?764次閱讀
    國產(chǎn)<b class='flag-5'>算</b><b class='flag-5'>力</b>首證具身大腦<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>實(shí)力:摩爾線程聯(lián)合智源研究院完成RoboBrain 2.5全流程<b class='flag-5'>訓(xùn)練</b>

    湘軍,讓變成生產(chǎn)?

    腦極體
    發(fā)布于 :2025年11月25日 22:56:58

    國產(chǎn)AI芯片真能扛住“內(nèi)卷”?海思昇騰的這波操作藏了多少細(xì)節(jié)?

    反而壓到了310W。更有意思的是它的異構(gòu)架構(gòu):NPU+CPU+DVPP的組合,居然能同時(shí)扛住訓(xùn)練和推理場景,之前做自動駕駛算法時(shí),用它跑模型時(shí)延直接降了20%。 但疑惑也有:這種
    發(fā)表于 10-27 13:12

    與電力的終極博弈,填上了AIDC的“電力黑洞”

    電子發(fā)燒友網(wǎng)報(bào)道(文/黃山明)AIDC即Artificial Intelligence Data Center,是為AI大模型訓(xùn)練和推理量身定制的高基礎(chǔ)設(shè)施。它區(qū)別于傳統(tǒng)互聯(lián)網(wǎng)數(shù)據(jù)
    的頭像 發(fā)表于 09-22 02:43 ?9011次閱讀

    科技上線赤兔推理引擎服務(wù),創(chuàng)新解鎖FP8大模型

    模型輕量化部署方案。用戶通過遠(yuǎn)程平臺預(yù)置的模型鏡像與AI工具,僅需50%的GPU即可解
    的頭像 發(fā)表于 07-30 21:44 ?1045次閱讀

    摩爾線程“AI工廠”:五大核心技術(shù)支撐,打造大模型訓(xùn)練超級工廠

    2025年7月25日,上海——在世界人工智能大會(WAIC 2025)開幕前夕,摩爾線程以“進(jìn)化,精度革命”為主題舉辦技術(shù)分享會,并創(chuàng)新性提出“AI工廠”理念。摩爾線程創(chuàng)始人兼CEO建中在主題
    的頭像 發(fā)表于 07-28 11:28 ?4842次閱讀
    摩爾線程“AI工廠”:五大核心技術(shù)支撐,打造大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>超級工廠

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】+NVlink技術(shù)從應(yīng)用到原理

    工作者身份的轉(zhuǎn)變期),便對這項(xiàng)技術(shù)深深癡迷,但當(dāng)時(shí)主流的RTX20系列,需要2080級別以上的才支持,鑒于個(gè)人實(shí)力,便將目光放在了9系卡上,這也就是「芯片 | 書中講的pascal
    發(fā)表于 06-18 19:31

    瑞芯微模型量化文件構(gòu)建

    模型一張圖片輸入時(shí),量化文件如上圖所示。但是我現(xiàn)在想量化deepprivacy人臉匿名模型,他的輸入是四個(gè)輸入。該模型訓(xùn)練時(shí)數(shù)據(jù)集只標(biāo)注
    發(fā)表于 06-13 09:07

    網(wǎng)絡(luò)的“神經(jīng)突觸”:AI互聯(lián)技術(shù)如何重構(gòu)分布式訓(xùn)練范式

    ? 電子發(fā)燒友網(wǎng)綜合報(bào)道 隨著AI技術(shù)迅猛發(fā)展,尤其是大型語言模型的興起,對于的需求呈現(xiàn)出爆炸性增長。這不僅推動了智中心的建設(shè),還對網(wǎng)絡(luò)互聯(lián)技術(shù)提出了新的挑戰(zhàn)。 ? 在AI大
    的頭像 發(fā)表于 06-08 08:11 ?7717次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>網(wǎng)絡(luò)的“神經(jīng)突觸”:AI互聯(lián)技術(shù)如何重構(gòu)分布式<b class='flag-5'>訓(xùn)練</b>范式

    AIGC基礎(chǔ)設(shè)施技術(shù)架構(gòu)與行業(yè)實(shí)踐

    代提升1.5,內(nèi)存容量達(dá)288GB,適配千億參數(shù)模型訓(xùn)練需求。 國產(chǎn)突破?:國內(nèi)首款6nm高性能GPU芯片于2025年5月成功點(diǎn)亮,性能對標(biāo)國際中端產(chǎn)品,已獲億元級訂單;國產(chǎn)芯片廠商與高端制程工藝結(jié)合,推動
    的頭像 發(fā)表于 05-29 07:44 ?1117次閱讀
    AIGC<b class='flag-5'>算</b><b class='flag-5'>力</b>基礎(chǔ)設(shè)施技術(shù)架構(gòu)與行業(yè)實(shí)踐
    高邮市| 灵台县| 句容市| 江西省| 衡东县| 大余县| 扎赉特旗| 临武县| 洪江市| 兴化市| 兴安盟| 墨脱县| 贵港市| 乌兰浩特市| 双牌县| 突泉县| 牟定县| 万载县| 凉城县| 城口县| 静安区| 扎囊县| 商城县| 昌平区| 东莞市| 靖州| 谷城县| 饶阳县| 武陟县| 吴忠市| 磐安县| 蒙山县| 天津市| 济阳县| 岗巴县| 西丰县| 襄城县| 林周县| 绥中县| 恩施市| 崇左市|