哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹三個(gè)NLP領(lǐng)域的熱門詞匯

8g3K_AI_Thinker ? 來源:lp ? 2019-04-17 10:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:在過去的一段時(shí)間,自然語言處理領(lǐng)域取得了許多重要的進(jìn)展,Transformer、BERT、無監(jiān)督機(jī)器翻譯,這些詞匯仿佛在一夜之間就進(jìn)入了人們的視野。你知道它們具體都是什么意思嗎?今天,我們就將為大家介紹三個(gè)NLP領(lǐng)域的熱門詞匯。

Transformer

Transformer 在2017年由Google在題為《Attention Is All You Need》的論文中提出。Transformer 是一個(gè)完全基于注意力機(jī)制的編解碼器模型,它拋棄了之前其它模型引入注意力機(jī)制后仍然保留的循環(huán)與卷積結(jié)構(gòu),而采用了自注意力(Self-attention)機(jī)制,在任務(wù)表現(xiàn)、并行能力和易于訓(xùn)練性方面都有大幅的提高。

在 Transformer 出現(xiàn)之前,基于神經(jīng)網(wǎng)絡(luò)的機(jī)器翻譯模型多數(shù)都采用了 RNN 的模型架構(gòu),它們依靠循環(huán)功能進(jìn)行有序的序列操作。雖然 RNN 架構(gòu)有較強(qiáng)的序列建模能力,但是存在訓(xùn)練速度慢,訓(xùn)練質(zhì)量低等問題。

與基于 RNN 的方法不同,Transformer 模型中沒有循環(huán)結(jié)構(gòu),而是把序列中的所有單詞或者符號并行處理,同時(shí)借助自注意力機(jī)制對句子中所有單詞之間的關(guān)系直接進(jìn)行建模,而無需考慮各自的位置。

具體而言,如果要計(jì)算給定單詞的下一個(gè)表征,Transformer 會將該單詞與句子中的其它單詞一一對比,并得出這些單詞的注意力分?jǐn)?shù)。注意力分?jǐn)?shù)決定其它單詞對給定詞匯的語義影響。之后,注意力分?jǐn)?shù)用作所有單詞表征的平均權(quán)重,這些表征輸入全連接網(wǎng)絡(luò),生成新表征。

由于 Transformer 并行處理所有的詞,以及每個(gè)單詞都可以在多個(gè)處理步驟內(nèi)與其它單詞之間產(chǎn)生聯(lián)系,它的訓(xùn)練速度比 RNN 模型更快,在翻譯任務(wù)中的表現(xiàn)也比 RNN 模型更好。

除了計(jì)算性能和更高的準(zhǔn)確度,Transformer 另一個(gè)亮點(diǎn)是可以對網(wǎng)絡(luò)關(guān)注的句子部分進(jìn)行可視化,尤其是在處理或翻譯一個(gè)給定詞時(shí),因此可以深入了解信息是如何通過網(wǎng)絡(luò)傳播的。

之后,Google的研究人員們又對標(biāo)準(zhǔn)的 Transformer 模型進(jìn)行了拓展,采用了一種新型的、注重效率的時(shí)間并行循環(huán)結(jié)構(gòu),讓它具有通用計(jì)算能力,并在更多任務(wù)中取得了更好的結(jié)果。

改進(jìn)的模型(Universal Transformer)在保留Transformer 模型原有并行結(jié)構(gòu)的基礎(chǔ)上,把 Transformer 一組幾個(gè)各異的固定的變換函數(shù)替換成了一組由單個(gè)的、時(shí)間并行的循環(huán)變換函數(shù)構(gòu)成的結(jié)構(gòu)。

相比于 RNN一個(gè)符號接著一個(gè)符號從左至右依次處理序列,Universal Transformer 和 Transformer 能夠一次同時(shí)處理所有的符號,但 Universal Transformer 接下來會根據(jù)自注意力機(jī)制對每個(gè)符號的解釋做數(shù)次并行的循環(huán)處理修飾。

Universal Transformer 中時(shí)間并行的循環(huán)機(jī)制不僅比 RNN 中使用的串行循環(huán)速度更快,也讓 Universal Transformer 比標(biāo)準(zhǔn)的前饋 Transformer 更加強(qiáng)大。

預(yù)訓(xùn)練 Pre-train

目前神經(jīng)網(wǎng)絡(luò)在進(jìn)行訓(xùn)練的時(shí)候基本都是基于后向傳播(Back Propagation,BP)算法,通過對網(wǎng)絡(luò)模型參數(shù)進(jìn)行隨機(jī)初始化,然后利用優(yōu)化算法優(yōu)化模型參數(shù)。

但是在標(biāo)注數(shù)據(jù)很少的情況下,通過神經(jīng)網(wǎng)絡(luò)訓(xùn)練出的模型往往精度有限,“預(yù)訓(xùn)練”則能夠很好地解決這個(gè)問題,并且對一詞多義進(jìn)行建模。

預(yù)訓(xùn)練是通過大量無標(biāo)注的語言文本進(jìn)行語言模型的訓(xùn)練,得到一套模型參數(shù),利用這套參數(shù)對模型進(jìn)行初始化,再根據(jù)具體任務(wù)在現(xiàn)有語言模型的基礎(chǔ)上進(jìn)行精調(diào)。

預(yù)訓(xùn)練的方法在自然語言處理的分類和標(biāo)記任務(wù)中,都被證明擁有更好的效果。目前,熱門的預(yù)訓(xùn)練方法主要有三個(gè):ELMo,OpenAI GPT 和 BERT。

在2018年初,艾倫人工智能研究所和華盛頓大學(xué)的研究人員在題為《Deep contextualized word representations》一文中提出了ELMo。

相較于傳統(tǒng)的使用詞嵌入(Word embedding)對詞語進(jìn)行表示,得到每個(gè)詞唯一固定的詞向量,ELMo 利用預(yù)訓(xùn)練好的雙向語言模型,根據(jù)具體輸入從該語言模型中可以得到在文本中該詞語的表示。在進(jìn)行有監(jiān)督的 NLP 任務(wù)時(shí),可以將 ELMo 直接當(dāng)做特征拼接到具體任務(wù)模型的詞向量輸入或者是模型的最高層表示上。

在ELMo的基礎(chǔ)之上,OpenAI的研究人員在《Improving Language Understanding by Generative Pre-Training》提出了OpenAI GPT。

與ELMo為每一個(gè)詞語提供一個(gè)顯式的詞向量不同,OpenAI GPT能夠?qū)W習(xí)一個(gè)通用的表示,使其能夠在大量任務(wù)上進(jìn)行應(yīng)用。

在處理具體任務(wù)時(shí),OpenAI GPT 不需要再重新對任務(wù)構(gòu)建新的模型結(jié)構(gòu),而是直接在 Transformer 這個(gè)語言模型上的最后一層接上 softmax 作為任務(wù)輸出層,再對這整個(gè)模型進(jìn)行微調(diào)。

ELMo和OpenAI GPT這兩種預(yù)訓(xùn)練語言表示方法都是使用單向的語言模型來學(xué)習(xí)語言表示,而Google在提出的BERT則實(shí)現(xiàn)了雙向?qū)W習(xí),并得到了更好的訓(xùn)練效果。

具體而言,BERT使用Transformer的編碼器作為語言模型,并在語言模型訓(xùn)練時(shí)提出了兩個(gè)新的目標(biāo):MLM(Masked Language Model)和句子預(yù)測。

MLM是指在輸入的詞序列中,隨機(jī)的擋上 15% 的詞,并遮擋部分的詞語進(jìn)行雙向預(yù)測。為了讓模型能夠?qū)W習(xí)到句子間關(guān)系,研究人員提出了讓模型對即將出現(xiàn)的句子進(jìn)行預(yù)測:對連續(xù)句子的正誤進(jìn)行二元分類,再對其取和求似然。

圖片來源:Google AI Blog

無監(jiān)督機(jī)器翻譯

Unsupervised Machine Translation

現(xiàn)有的機(jī)器翻譯需要大量的翻譯文本做訓(xùn)練樣本,這使得機(jī)器翻譯只在一小部分樣本數(shù)量充足的語言上表現(xiàn)良好,但如何在沒有源翻譯的情況下訓(xùn)練機(jī)器翻譯模型,即無監(jiān)督訓(xùn)練,成為了目前熱門的研究話題。

Facebook 在 EMNLP 2018 上的論文《Phrase-Based & Neural Unsupervised Machine Translation》利用跨字嵌入(Cross Word Embedding),提升了高達(dá) 11 BLEU,那么 Facebook 是如何實(shí)現(xiàn)的呢?

第一步是讓系統(tǒng)學(xué)習(xí)雙語詞典。系統(tǒng)首先為每種語言中的每個(gè)單詞訓(xùn)練詞嵌入,訓(xùn)練詞嵌入通過上下文來預(yù)測給定單詞周圍的單詞。

不同語言的詞嵌入具有相似的鄰域結(jié)構(gòu),因此可以通過對抗訓(xùn)練等方法讓系統(tǒng)學(xué)習(xí)旋轉(zhuǎn)變換一種語言的詞嵌入,以匹配另一種語言的詞嵌入。

基于這些信息,就可以得到一個(gè)相對準(zhǔn)確的雙語詞典,并基本可以實(shí)現(xiàn)逐字翻譯。在得到語言模型和初始的逐字翻譯模型之后,就可以構(gòu)建翻譯系統(tǒng)的早期版本。

然后將系統(tǒng)翻譯出的語句作為標(biāo)注過的真實(shí)數(shù)據(jù)進(jìn)行處理,訓(xùn)練反向機(jī)器翻譯系統(tǒng),得到一個(gè)更加流暢和語法正確的語言模型,并將反向翻譯中人工生成的平行句子與該語言模型提供的校正相結(jié)合,以此來訓(xùn)練這個(gè)翻譯系統(tǒng)。

通過對系統(tǒng)的訓(xùn)練,形成了反向翻譯的數(shù)據(jù)集,從而改進(jìn)原有的機(jī)器翻譯系統(tǒng)。隨著一個(gè)系統(tǒng)得到改進(jìn),可以使用它以迭代方式在相反方向上為系統(tǒng)生成訓(xùn)練數(shù)據(jù),并根據(jù)需要進(jìn)行多次迭代。

逐字嵌入初始化、語言建模和反向翻譯是無監(jiān)督機(jī)器翻譯的三個(gè)重要原則。將基于這些原理得到的翻譯系統(tǒng)應(yīng)用于無監(jiān)督的神經(jīng)模型和基于計(jì)數(shù)的統(tǒng)計(jì)模型,從訓(xùn)練好的神經(jīng)模型開始,使用基于短語模型的其它反向翻譯句子對其進(jìn)行訓(xùn)練,最終得到了一個(gè)既流暢,準(zhǔn)確率又高的模型。

對于無監(jiān)督機(jī)器翻譯,微軟亞洲研究院自然語言計(jì)算組也進(jìn)行了探索。研究人員利用后驗(yàn)正則(Posterior Regularization)的方式將 SMT(統(tǒng)計(jì)機(jī)器翻譯)引入到無監(jiān)督NMT的訓(xùn)練過程中,并通過EM過程交替優(yōu)化 SMT 和 NMT 模型,使得無監(jiān)督 NMT 迭代過程中的噪音能夠被有效去除,同時(shí) NMT 模型也彌補(bǔ)了 SMT 模型在句子流暢性方面的不足。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4841

    瀏覽量

    108147
  • 機(jī)器翻譯
    +關(guān)注

    關(guān)注

    0

    文章

    141

    瀏覽量

    15551
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23340

原文標(biāo)題:請收下這份 NLP 熱門詞匯解讀

文章出處:【微信號:AI_Thinker,微信公眾號:人工智能頭條】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Linux系統(tǒng)中這三個(gè)命令的完整功能和正確查看方法

    在 Linux 系統(tǒng)的日常運(yùn)維中,監(jiān)控進(jìn)程資源使用情況是最頻繁的工作之一。當(dāng)服務(wù)器 CPU 突然飆高、內(nèi)存告警、或者業(yè)務(wù)響應(yīng)變慢時(shí),運(yùn)維工程師首先要做的事情就是查看系統(tǒng)資源使用狀況。top、ps、free 這三個(gè)命令幾乎是每個(gè)運(yùn)維人員每天都要敲幾十遍的工具。
    的頭像 發(fā)表于 04-21 11:45 ?148次閱讀

    EtherCAT 主站開發(fā),國內(nèi)工程師最常問的三個(gè)核心問題

    往往是難點(diǎn)。深耕工業(yè)通訊多年,我們總結(jié)了國內(nèi)工程師在私信和技術(shù)交流中最常問的三個(gè)核心問題。今天就通過這篇QA,帶大家徹底摸清EtherCAT主站開發(fā)的門道。一、Ethe
    的頭像 發(fā)表于 04-16 13:32 ?512次閱讀
    EtherCAT 主站開發(fā),國內(nèi)工程師最常問的<b class='flag-5'>三個(gè)</b>核心問題

    SPE協(xié)議芯片如何讓工業(yè)布線瘦身70%?三個(gè)實(shí)戰(zhàn)案例告訴你

    在工業(yè)現(xiàn)場,布線一直是讓人頭疼的問題。傳統(tǒng)的以太網(wǎng)需要4對線,體積大、成本高;現(xiàn)場總線又速率低、互操作性差。SPE(單對以太網(wǎng))協(xié)議芯片的出現(xiàn),正在改變這一切。本文通過三個(gè)實(shí)戰(zhàn)案例,看看SPE如何讓工業(yè)布線瘦身70%。
    的頭像 發(fā)表于 03-13 17:49 ?1194次閱讀

    駿馬奔騰,芯向未來:SiC功率器件的“三個(gè)必然”與丙午馬年的產(chǎn)業(yè)躍遷

    駿馬奔騰,芯向未來:SiC功率器件的“三個(gè)必然”與丙午馬年的產(chǎn)業(yè)躍遷 日期: 2026年 丙午馬年 除夕 主題: 傾佳電子楊茜“三個(gè)必然”戰(zhàn)略論斷與基本半導(dǎo)體碳化硅技術(shù)的產(chǎn)業(yè)替代邏輯 關(guān)鍵詞
    的頭像 發(fā)表于 02-15 10:33 ?138次閱讀
    駿馬奔騰,芯向未來:SiC功率器件的“<b class='flag-5'>三個(gè)</b>必然”與丙午馬年的產(chǎn)業(yè)躍遷

    altium designer 如何畫短路兩個(gè)或者三個(gè)網(wǎng)絡(luò)的封裝?

    如何我畫了一個(gè)天線,有3個(gè)引腳,TX1,TX2,GND, 但實(shí)際上這三個(gè)引腳是連在一起的。我導(dǎo)入pcb后,會報(bào)DRC警告,這個(gè)該怎么解決?
    發(fā)表于 02-12 19:30

    三個(gè)經(jīng)典開關(guān)電源實(shí)際問題解析

    下面三個(gè)關(guān)于多路輸出電源連續(xù)工作模式的問題,測試一下您的電源設(shè)計(jì)知識。然后核對您的答案。
    的頭像 發(fā)表于 01-22 16:08 ?3380次閱讀
    <b class='flag-5'>三個(gè)</b>經(jīng)典開關(guān)電源實(shí)際問題解析

    MDD從工程故障看極管三個(gè)極的設(shè)計(jì)誤區(qū)與失效案例

    一、為什么極管問題總是“看起來很隨機(jī)”?在FAE現(xiàn)場支持中,經(jīng)常遇到如下問題:-同一電路,有的板子正常,有的異常-高溫下工作不穩(wěn)定-更換批次后性能漂移這些問題,90%都與三個(gè)極的設(shè)計(jì)與使用方式有關(guān)
    的頭像 發(fā)表于 01-19 11:48 ?335次閱讀
    MDD從工程故障看<b class='flag-5'>三</b>極管<b class='flag-5'>三個(gè)</b>極的設(shè)計(jì)誤區(qū)與失效案例

    束管式光纜最簡單三個(gè)步驟

    束管式光纜的安裝或施工可簡化為以下三個(gè)核心步驟,確保光纖傳輸性能穩(wěn)定且操作高效: 第一步:路由規(guī)劃與準(zhǔn)備 路徑勘察 確定光纜敷設(shè)路線,避開強(qiáng)電磁干擾源(如高壓線)、尖銳物體或易受外力破壞的區(qū)域(如
    的頭像 發(fā)表于 01-07 10:12 ?433次閱讀

    未來工業(yè)AI發(fā)展的三個(gè)必然階段

    與優(yōu)化 能力的深層革命。 未來十年,工業(yè)AI的發(fā)展將經(jīng)歷三個(gè)清晰的階段:? 智能輔助 → 智能決策 → 自主優(yōu)化 。這次進(jìn)化,構(gòu)成了工業(yè)從“人控機(jī)器”到“機(jī)器共智”的核心路徑。 一、第一階段:智能輔助(AI for Assistance) 時(shí)間窗口:
    的頭像 發(fā)表于 10-27 15:47 ?586次閱讀
    未來工業(yè)AI發(fā)展的<b class='flag-5'>三個(gè)</b>必然階段

    DIY 流體模擬吊墜(二):第二個(gè)、第三個(gè)、更多的吊墜......

    “ ?上文?DIY 流體模擬吊墜(一):理論與第一個(gè)吊墜的制作?介紹了流體模擬的理論并打造了第一個(gè)吊墜,現(xiàn)在繼續(xù)制造第二、三個(gè)吊墜......? ” 第二
    的頭像 發(fā)表于 09-17 23:17 ?2474次閱讀
    DIY 流體模擬吊墜(二):第二<b class='flag-5'>個(gè)</b>、第<b class='flag-5'>三個(gè)</b>、更多的吊墜......

    請問K230D的三個(gè)相機(jī)能同步采樣嗎?

    如題 K230D的三個(gè)相機(jī)能同步采樣嗎?
    發(fā)表于 08-04 06:32

    七百多頁電機(jī)中英文詞匯收藏分享

    本書共收錄了50000余詞條,除重點(diǎn)涵蓋了發(fā)電機(jī)和電動機(jī)產(chǎn)品從設(shè)計(jì)、工藝、生產(chǎn)制造、試驗(yàn)到安裝運(yùn)行等方面的專業(yè)技術(shù)詞匯外,還兼收了一些近年新涌現(xiàn)出來的新能源、新技術(shù)方面的詞匯。此外,為滿足讀者翻譯
    發(fā)表于 07-17 14:23

    怎么結(jié)合嵌入式,Linux,和FPGA三個(gè)方向達(dá)到一個(gè)均衡發(fā)展?

    在嵌入式領(lǐng)域,不少人都懷揣著讓嵌入式、Linux 和 FPGA 三個(gè)方向?qū)崿F(xiàn)均衡發(fā)展的夢想,然而實(shí)踐中卻面臨諸多挑戰(zhàn)。就像備受矚目的全棧工程師稚暉君,他從大學(xué)玩單片機(jī)起步,憑借將智能算法融入嵌入式而
    的頭像 發(fā)表于 06-25 10:08 ?1016次閱讀
    怎么結(jié)合嵌入式,Linux,和FPGA<b class='flag-5'>三個(gè)</b>方向達(dá)到一<b class='flag-5'>個(gè)</b>均衡發(fā)展?

    突破LuatOS開發(fā)瓶頸:三個(gè)二次開發(fā)必備知識揭秘!

    遇到LuatOS開發(fā)難題?或許你忽略了這三個(gè)關(guān)鍵常識。它們看似簡單,卻能破解資源管理、效率提升等瓶頸問題,為你的項(xiàng)目注入新活力,實(shí)現(xiàn)技術(shù)躍遷。 本期一起來了解LuatOS開發(fā)需要熟悉的幾個(gè)常識
    的頭像 發(fā)表于 06-23 15:05 ?509次閱讀
    突破LuatOS開發(fā)瓶頸:<b class='flag-5'>三個(gè)</b>二次開發(fā)必備知識揭秘!

    請問并聯(lián)三個(gè)LT3092擴(kuò)展電流是否可行?

    使用LT3092作為脈沖電流源驅(qū)動150mA使用,現(xiàn)在需要擴(kuò)展電流至400~500mA。電流需求穩(wěn)定。①請問并聯(lián)三個(gè)LT3092擴(kuò)展電流是否可行。電路設(shè)計(jì)中是否需要注意其他事項(xiàng)。②如下圖,手冊給出2種2路并聯(lián)的方案,路并聯(lián)選擇哪種電路較合適?③脈沖開關(guān)如何添加?
    發(fā)表于 06-19 07:13
    勃利县| 利津县| 远安县| 大渡口区| 武功县| 宾川县| 四川省| 汕头市| 监利县| 泰州市| 静乐县| 油尖旺区| 杂多县| 马公市| 同心县| 衡阳县| 霍山县| 花莲市| 龙州县| 建湖县| 乌鲁木齐县| 饶河县| 五常市| 安新县| 庆阳市| 南丰县| 寻甸| 金阳县| 将乐县| 淳化县| 乐平市| 西和县| 常熟市| 楚雄市| 抚顺县| 修文县| 南通市| 荔波县| 原平市| 南召县| 潞西市|