哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

萬用NLP模型Transformer的升級版

DPVg_AI_era ? 來源:lq ? 2019-02-11 09:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌官方博客今天發(fā)文,詳細解釋了萬用NLP模型Transformer的升級版——Transformer-XL,該模型利用兩大技術(shù),在5個數(shù)據(jù)集中都獲得了強大的結(jié)果。

要正確理解一篇文章,有時需要參考出現(xiàn)在幾千個單詞后面的一個單詞或一個句子。

這是一個長期依賴性(long-range dependence)的例子,這是序列數(shù)據(jù)中常見的現(xiàn)象,處理許多現(xiàn)實世界的任務都必須理解這種依賴。

雖然人類很自然地就會這樣做,但是用神經(jīng)網(wǎng)絡建模長期依賴關(guān)系仍然很具挑戰(zhàn)性?;贕ating的RNN和梯度裁剪(gradient clipping)技術(shù)提高了對長期依賴關(guān)性建模的能力,但仍不足以完全解決這個問題。

應對這個挑戰(zhàn)的一種方法是使用Transformers,它允許數(shù)據(jù)單元之間直接連接,能夠更好地捕獲長期依賴關(guān)系。

Transformer 是谷歌在 17 年做機器翻譯任務的 “Attention is all you need” 論文中提出的,引起了相當大的反響,業(yè)內(nèi)有“每一位從事 NLP 研發(fā)的同仁都應該透徹搞明白 Transformer”的說法。

參考閱讀:

Transformer一統(tǒng)江湖:自然語言處理三大特征抽取器比較

然而,在語言建模中,Transformers目前使用固定長度的上下文來實現(xiàn),即將一個長的文本序列截斷為幾百個字符的固定長度片段,然后分別處理每個片段。

vanillaTransformer模型在訓練時具有固定長度上下文

這造成了兩個關(guān)鍵的限制:

算法無法建模超過固定長度的依賴關(guān)系。

被分割的片段通常不考慮句子邊界,導致上下文碎片化,從而導致優(yōu)化低效。即使是對于長期依賴性不顯著的較短序列,這也是特別麻煩的。

為了解決這些限制,谷歌提出一個新的架構(gòu):Transformer-XL,它使自然語言的理解超出了固定長度的上下文。

Transformer-XL由兩種技術(shù)組成:片段級遞歸機制(segment-level recurrence mechanism)和相對位置編碼方案(relative positional encoding scheme)。

論文:Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context(https://arxiv.org/abs/1901.02860)

論文詳細解讀:谷歌、CMU重磅論文:Transformer升級版,評估速度提升超1800倍!

Segment-level的遞歸機制

在訓練期間,為前一個segment計算的representation被修復并緩存,以便在模型處理下一個新的segment時作為擴展上下文重新利用。

這個額外的連接將最大可能依賴關(guān)系長度增加了N倍,其中N表示網(wǎng)絡的深度,因為上下文信息現(xiàn)在可以跨片段邊界流動。

此外,這種遞歸機制還解決了上下文碎片問題,為新段前面的token提供了必要的上下文。

在訓練期間具有segment-level recurrence的Transformer-XL

相對位置編碼

然而,天真地應用 segment-level recurrence是行不通的,因為當我們重用前面的段時,位置編碼是不一致的。

例如,考慮一個具有上下文位置[0,1,2,3]的舊段。當處理一個新的段時,我們將兩個段合并,得到位置[0,1,2,3,0,1,2,3],其中每個位置id的語義在整個序列中是不連貫的。

為此,我們提出了一種新的相對位置編碼方案,使遞歸機制成為可能。

此外,與其他相對位置編碼方案不同,我們的公式使用具有l(wèi)earnable transformations的固定嵌入,而不是earnable embeddings,因此在測試時更適用于較長的序列。

當這兩種方法結(jié)合使用時,在評估時, Transformer-XL比vanilla Transformer模型具有更長的有效上下文。

在計算時具有固定長度上下文的vanilla Transformer

在評估期間具有segment-level 遞歸的Transformer-XL

此外,Transformer-XL能夠在不需要重新計算的情況下處理新段中的所有元素,從而顯著提高了速度(將在下面討論)。

結(jié)果

Transformer-XL在各種主要的語言建模(LM)基準測試中獲得新的最優(yōu)(SoTA)結(jié)果,包括長序列和短序列上的字符級和單詞級任務。實驗證明, Transformer-XL 有三個優(yōu)勢:

Transformer-XL學習的依賴關(guān)系比RNN長約80%,比vanilla Transformers模型長450%,盡管后者在性能上比RNN好,但由于固定長度上下文的限制,對于建模長期依賴關(guān)系并不是最好的。

由于不需要重復計算,Transformer-XL在語言建模任務的評估期間比vanilla Transformer快1800+倍。

由于建模長期依賴關(guān)系的能力,Transformer-XL在長序列上具有更好的困惑度(Perplexity, 預測樣本方面更準確),并且通過解決上下文碎片化問題,在短序列上也具有更好的性能。

Transformer-XL在5個數(shù)據(jù)集上的結(jié)果

Transformer-XL在5個數(shù)據(jù)集上都獲得了強大的結(jié)果:在enwiki8上將bpc/perplexity的最新 state-of-the-art(SoTA)結(jié)果從1.06提高到0.99,在text8上從1.13提高到1.08,在WikiText-103上從20.5提高到18.3,在One Billion Word上從23.7提高到21.8,在Penn Treebank上從55.3提高到54.5。

研究人員展望了Transformer-XL的許多令人興奮的潛在應用,包括但不限于改進語言模型預訓練方法(例如BERT),生成逼真的、長篇的文章,以及在圖像和語音領(lǐng)域的應用。

論文中使用的代碼、預訓練模型和超參數(shù)都已全部開源:

https://github.com/kimiyoung/transformer-xl

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器翻譯
    +關(guān)注

    關(guān)注

    0

    文章

    141

    瀏覽量

    15551
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1240

    瀏覽量

    26261
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23340

原文標題:谷歌升級版Transformer官方解讀:更大、更強,解決長文本問題(開源)

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    萬用

    請問各位大神,誰有福祿克8020B萬用表電路圖,現(xiàn)在故障是不歸零,亂跳數(shù)字
    發(fā)表于 03-17 20:42

    數(shù)字萬用表的重要參數(shù)詳解

    數(shù)字萬用表(DMM)是一種多功能電子測量工具,用于測量電壓、電流、電阻、電容等電參數(shù)。選擇和使用數(shù)字萬用表時,了解其重要參數(shù)至關(guān)重要。本文詳細解釋了數(shù)字萬用表的關(guān)鍵參數(shù),幫助大家理解。 位數(shù)
    的頭像 發(fā)表于 03-04 15:20 ?390次閱讀
    數(shù)字<b class='flag-5'>萬用</b>表的重要參數(shù)詳解

    數(shù)字萬用表的類型、原理與應用

    在現(xiàn)代電子技術(shù)快速發(fā)展的背景下,數(shù)字萬用表(Digital Multimeter,簡稱DMM)已成為電子工程師、維修技術(shù)人員和科研人員不可或缺的基礎測量工具。它集電壓、電流、電阻等多種電學參數(shù)測量
    的頭像 發(fā)表于 02-24 15:13 ?299次閱讀
    數(shù)字<b class='flag-5'>萬用</b>表的類型、原理與應用

    如何讀取數(shù)字萬用表的測量結(jié)果

    數(shù)字萬用表通過數(shù)字顯示測量結(jié)果,其核心是理解位數(shù)、分辨率及精度的含義,這些直接決定了讀數(shù)的解讀方式。 一、位數(shù)與分辨率:顯示的細節(jié)能力 數(shù)字萬用表的屏幕位數(shù)代表測量分辨率(可量化的最小細節(jié)),位數(shù)
    的頭像 發(fā)表于 01-07 14:28 ?718次閱讀
    如何讀取數(shù)字<b class='flag-5'>萬用</b>表的測量結(jié)果

    經(jīng)典是德萬用表清倉一口價!#萬用表#是德萬用表#六位半萬用表#二手萬用

    萬用
    安泰儀器維修
    發(fā)布于 :2025年11月03日 17:13:00

    ??萬用表與電流探頭測量電流信號的技術(shù)對比分析??

    萬用表與電流探頭在電流測量中各有優(yōu)勢:萬用表適合小電流、精度高,但需斷電;電流探頭非接觸、適合大電流和高頻信號。
    的頭像 發(fā)表于 09-26 17:35 ?778次閱讀

    什么是數(shù)字萬用表?

    電子設備的狀況需要使用測量儀器來確定。對于無法目測來確定狀態(tài)的電子設備,建議使用數(shù)字萬用表進行測量。本節(jié)將詳細介紹諸如“數(shù)字萬用表是什么?”“數(shù)字萬用表與模擬萬用表有區(qū)別嗎?”等數(shù)字
    的頭像 發(fā)表于 08-18 10:00 ?2518次閱讀
    什么是數(shù)字<b class='flag-5'>萬用</b>表?

    安捷倫Agilent 34411A數(shù)字萬用

    安捷倫Agilent 34411A數(shù)字萬用表,Agilent 34411A數(shù)字萬用表以工業(yè)標準的Agilent 34401A萬用表為基礎設計而成。它具有 34410A 的全部特性,以及 50000
    的頭像 發(fā)表于 08-13 16:31 ?1052次閱讀
    安捷倫Agilent 34411A數(shù)字<b class='flag-5'>萬用</b>表

    訊飛星火X1升級版正式上線

    今天,基于全國產(chǎn)算力訓練的深度推理大模型——訊飛星火X1升級版正式上線。
    的頭像 發(fā)表于 07-30 14:12 ?2179次閱讀
    訊飛星火X1<b class='flag-5'>升級版</b>正式上線

    數(shù)字萬用表是什么?七位半數(shù)字萬用表/多用表的核心指標應用及技術(shù)趨勢?

    ? 數(shù)字萬用表(DMM) ? ? 數(shù)字萬用表(Digital Multimeter, DMM) ? 是一種電子測量儀器,用于測量電壓(AC/DC)、電流(AC/DC)、電阻、電容、頻率、溫度等電學
    的頭像 發(fā)表于 07-16 18:04 ?3107次閱讀
    數(shù)字<b class='flag-5'>萬用</b>表是什么?七位半數(shù)字<b class='flag-5'>萬用</b>表/多用表的核心指標應用及技術(shù)趨勢?

    羅德與施瓦茨發(fā)布全新UDS系列數(shù)字萬用

    版本,其中6?位型號的直流測量基本精度高達0.0075%。作為R&S HMC8012數(shù)字萬用表的升級換代產(chǎn)品,UDS系列不僅精度更高,而且采用升級的直觀用戶界面,可大幅提升測試效率與操作流暢度。
    的頭像 發(fā)表于 07-03 18:18 ?1683次閱讀

    智能觸屏萬用表的科技優(yōu)勢在哪

    在科技飛速發(fā)展的今天,電子測量儀器也在不斷進化。智能觸屏萬用表作為新一代的測量工具,正以其獨特的優(yōu)勢和創(chuàng)新的功能,為電子工程師、技術(shù)人員以及電子愛好者帶來了前所未有的便捷與高效。今天我們看看智能觸屏
    發(fā)表于 06-12 16:34

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學習領(lǐng)域正在經(jīng)歷一場翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語言處理(NLP)的標準,而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發(fā)表于 06-10 14:24 ?1442次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)概述
    尉犁县| 邹城市| 新龙县| 赫章县| 安多县| 耒阳市| 乌拉特后旗| 肥东县| 额尔古纳市| 饶阳县| 嵩明县| 政和县| 元朗区| 蓬莱市| 务川| 南江县| 宝清县| 玛沁县| 宜昌市| 手游| 方城县| 湘西| 昌乐县| 固原市| 绥化市| 澄迈县| 屯留县| 林州市| 麻栗坡县| 南城县| 綦江县| 连山| 聊城市| 成都市| 岢岚县| 江西省| 陆良县| 阿图什市| 常德市| 武功县| 峨山|