哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于馭勢(shì)通往深度學(xué)習(xí)之路的分析和介紹

VtWH_馭勢(shì)未 ? 來(lái)源:djl ? 2019-09-19 17:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI天團(tuán)出道已久,成員都是集顏值和才華于一身的男紙,之前我們已經(jīng)見過(guò)其中三位了,壓軸出場(chǎng)的到底是誰(shuí)?

更為重要的是,他會(huì)帶給我們關(guān)于人工智能的什么新鮮東東呢?

王宇航,博士畢業(yè)于中國(guó)科學(xué)院自動(dòng)化研究所,現(xiàn)階段主要研究方向包括:深度學(xué)習(xí)、圖像語(yǔ)義分割、目標(biāo)檢測(cè)、網(wǎng)絡(luò)模型壓縮與加速等。

宇航告訴我們,深度神經(jīng)網(wǎng)絡(luò)也可以是一個(gè)“Transformer”,它可以在使用時(shí)根據(jù)輸入數(shù)據(jù)動(dòng)態(tài)地調(diào)整自己的結(jié)構(gòu)。至于為什么要設(shè)計(jì)這樣的網(wǎng)絡(luò)結(jié)構(gòu),宇航用“殺雞焉用牛刀”來(lái)形容它。

隨著近年來(lái)深度學(xué)習(xí)的快速發(fā)展,我們已經(jīng)能夠獲得越來(lái)越精確的模型實(shí)現(xiàn)對(duì)圖像目標(biāo)的識(shí)別,而相應(yīng)地,模型的體積也在成倍地增長(zhǎng),這給模型的部署和應(yīng)用帶來(lái)了很大的麻煩。因此,很多學(xué)者一直致力于給深度神經(jīng)網(wǎng)絡(luò)模型“減重”,從而實(shí)現(xiàn)效果和速度的平衡。

其中的主要方法包括對(duì)模型和知識(shí)進(jìn)行蒸餾,對(duì)模型進(jìn)行剪枝,以及對(duì)模型參數(shù)進(jìn)行分解和量化等等。這些方法都能夠提高模型中“有效計(jì)算”的密度,從而使模型變得更加高效。如果說(shuō)這些方法是獲得了更加高效的“靜態(tài)”模型的話,另一類方法則采用“動(dòng)態(tài)”的模型來(lái)提高應(yīng)用端的計(jì)算效率,它們針對(duì)不同的輸入數(shù)據(jù)動(dòng)態(tài)地調(diào)整網(wǎng)絡(luò)的前向過(guò)程,去除不必要的計(jì)算,從而達(dá)到加速的目的。

首先,我們可以分析一下深度神經(jīng)網(wǎng)絡(luò)模型在訓(xùn)練和預(yù)測(cè)過(guò)程中的不同:在訓(xùn)練的過(guò)程中,我們要求模型對(duì)來(lái)自不同場(chǎng)景不同類別的目標(biāo)都進(jìn)行學(xué)習(xí)和辨別,以豐富其“知識(shí)儲(chǔ)備”,并因此不得不引入更多的神經(jīng)元和網(wǎng)絡(luò)連接。

而在預(yù)測(cè)階段,我們的需求往往集中于個(gè)體圖像的識(shí)別,而應(yīng)對(duì)這樣相對(duì)單一的場(chǎng)景和目標(biāo),往往不需要我們使出全部的“看家本領(lǐng)”,只需要使用一部分相關(guān)知識(shí)針對(duì)性地去解決就可以了。

對(duì)于深度神經(jīng)網(wǎng)絡(luò)模型,參數(shù),或者說(shuō)神經(jīng)元之間的連接,就是它的“知識(shí)”,而針對(duì)不同的數(shù)據(jù)對(duì)網(wǎng)絡(luò)連接進(jìn)行選擇, 就可以動(dòng)態(tài)地調(diào)整網(wǎng)絡(luò)的計(jì)算過(guò)程,對(duì)于比較容易辨認(rèn)的圖像進(jìn)行較少的編碼和計(jì)算,而對(duì)于比較難以辨認(rèn)的圖像進(jìn)行較多的編碼和計(jì)算,從而提高網(wǎng)絡(luò)預(yù)測(cè)的整體效率。

本文介紹的這兩篇文章都是基于這樣的出發(fā)點(diǎn),而它們的關(guān)注點(diǎn)又各自不同。

“Runtime” 一文主要關(guān)注于減少網(wǎng)絡(luò)中卷積層的channel數(shù)量,如下圖所示:

關(guān)于馭勢(shì)通往深度學(xué)習(xí)之路的分析和介紹

為了簡(jiǎn)化模型,他們將網(wǎng)絡(luò)中每一個(gè)卷積層的卷積核分為k組,根據(jù)網(wǎng)絡(luò)各前層的輸出特征決定在本層中使用的卷積核數(shù)量m(1≤m≤k),并僅使用前m組卷積核參與運(yùn)算,從而通過(guò)減小m來(lái)削減層與層之間的連接,達(dá)到channel pruning的效果。

而 “SkipNet”一文則主要關(guān)注網(wǎng)絡(luò)中l(wèi)ayer的數(shù)量,其主要思想如下圖所示:

關(guān)于馭勢(shì)通往深度學(xué)習(xí)之路的分析和介紹

他們?yōu)榫W(wǎng)絡(luò)中的每一個(gè)層(或每一組層)學(xué)習(xí)一個(gè)“門”,并基于網(wǎng)絡(luò)各前層的輸出特征進(jìn)行判斷,是將前一層輸出的特征圖輸入本層進(jìn)行計(jì)算還是直接越過(guò)本層將其送入后續(xù)網(wǎng)絡(luò),從而通過(guò)“skip”掉盡可能多的層來(lái)實(shí)現(xiàn)加速的目的。

從直觀上來(lái)講,這兩篇文章分別從動(dòng)態(tài)削減模型的“寬度”和“深度”的角度,實(shí)現(xiàn)了對(duì)預(yù)測(cè)過(guò)程中網(wǎng)絡(luò)計(jì)算的約減。

那么如何實(shí)現(xiàn)對(duì)網(wǎng)絡(luò)連接方式的動(dòng)態(tài)調(diào)整呢?

在網(wǎng)絡(luò)由淺至深的過(guò)程中,對(duì)于網(wǎng)絡(luò)中每一層連接方式的選擇(對(duì)于“Runtime” 一文是選擇該層使用的卷積核數(shù)量,而對(duì)于 “SkipNet”一文是選擇該層參與計(jì)算與否)可以看作一個(gè)序列決策過(guò)程,因此,這兩篇文章均選擇了強(qiáng)化學(xué)習(xí)的方式建模這一過(guò)程。將原始的主體CNN網(wǎng)絡(luò)作為“Environment”,學(xué)習(xí)一個(gè)額外的輕量的CNN或RNN網(wǎng)絡(luò)作為“Agent”來(lái)產(chǎn)生決策序列。其中,對(duì)于原CNN網(wǎng)絡(luò)每一層的決策,作為一個(gè)“Action”都將帶來(lái)相應(yīng)的“Reward”。

為了在最大限度地壓縮網(wǎng)絡(luò)計(jì)算的同時(shí)最大化網(wǎng)絡(luò)的分類精度,在構(gòu)建“Reward”函數(shù)的過(guò)程中,需要同時(shí)考慮兩個(gè)部分:1.對(duì)“Action”約減計(jì)算量的獎(jiǎng)勵(lì),即prune掉的channel越多或skip掉的layer越多,獲得獎(jiǎng)勵(lì)越大;2.網(wǎng)絡(luò)最終的分類預(yù)測(cè)損失,即最終分類預(yù)測(cè)的log損失越小,獲得獎(jiǎng)勵(lì)越大。由于這兩部分的梯度計(jì)算方式不同,因此在對(duì)模型目標(biāo)函數(shù)進(jìn)行優(yōu)化的過(guò)程中,會(huì)構(gòu)成一個(gè)“強(qiáng)化學(xué)習(xí)+監(jiān)督學(xué)習(xí)”的混合學(xué)習(xí)框架。

在具體的算法實(shí)現(xiàn)中,這兩篇文章對(duì)于“Reward”函數(shù)的設(shè)計(jì)和優(yōu)化策略的選擇各有不同?!癛untime”一文采取了交替更新的方式,而“SkipNet”一文則采用了混合優(yōu)化的方式,具體的細(xì)節(jié)我們就不在這里詳述了。

對(duì)于方法的效果,這兩篇文章都給出了嚴(yán)謹(jǐn)?shù)臄?shù)據(jù)對(duì)比和可視化結(jié)果分析,大家可以根據(jù)興趣進(jìn)行更深入的閱讀和研究。而動(dòng)態(tài)網(wǎng)絡(luò)結(jié)構(gòu)的意義,可能也不止于單純的約減計(jì)算。網(wǎng)絡(luò)連接的改變實(shí)際上影響著整個(gè)特征編碼的過(guò)程,以“SkipNet”為例,對(duì)n個(gè)網(wǎng)絡(luò)層的選擇可能會(huì)帶來(lái)2^n種不同的特征編碼方式,而在訓(xùn)練這種動(dòng)態(tài)選擇策略的過(guò)程中,可能也會(huì)一定程度地解耦層與層之間的依賴關(guān)系,這也會(huì)為我們?nèi)蘸笤O(shè)計(jì)更具“自適應(yīng)性”的網(wǎng)絡(luò)結(jié)構(gòu)和研究網(wǎng)絡(luò)中信息的傳遞及融合方式帶來(lái)更多的啟發(fā)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度學(xué)習(xí)驅(qū)動(dòng)的超構(gòu)表面設(shè)計(jì)進(jìn)展及其在全息成像中的應(yīng)用

    可實(shí)現(xiàn)高質(zhì)量圖像的獲取。基于神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)方法進(jìn)行超構(gòu)表面設(shè)計(jì)的文章數(shù)量日益增多,但關(guān)于該主題的綜述仍較為匱乏。據(jù)麥姆斯咨詢報(bào)道,近期,中國(guó)計(jì)量大學(xué)田穎教授等人
    的頭像 發(fā)表于 04-09 13:55 ?108次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>驅(qū)動(dòng)的超構(gòu)表面設(shè)計(jì)進(jìn)展及其在全息成像中的應(yīng)用

    【智能檢測(cè)】基于AI深度學(xué)習(xí)與飛拍技術(shù)的影像測(cè)量系統(tǒng):實(shí)現(xiàn)高效精準(zhǔn)的全自動(dòng)光學(xué)檢測(cè)與智能制造數(shù)據(jù)閉環(huán)

    內(nèi)容概要:文檔內(nèi)容介紹了中圖儀器(Chotest)影像測(cè)量?jī)x融合人工智能深度學(xué)習(xí)與飛拍技術(shù)的自動(dòng)化檢測(cè)解決方案。系統(tǒng)通過(guò)AI深度學(xué)習(xí)實(shí)現(xiàn)
    發(fā)表于 03-31 17:11

    格陸博科技榮獲勢(shì)科技2025年度共創(chuàng)共贏獎(jiǎng)

    近日,在勢(shì)科技隆重舉行的十周年慶典上,格陸博科技憑借雙方長(zhǎng)期緊密的戰(zhàn)略合作關(guān)系,榮獲勢(shì)科技頒發(fā)的“致敬戰(zhàn)略伙伴·共創(chuàng)共贏”獎(jiǎng)項(xiàng)。這一榮譽(yù)不僅見證了雙方攜手走過(guò)的十年征程,更彰顯了彼
    的頭像 發(fā)表于 03-02 16:59 ?1244次閱讀

    SGS為江蘇智轉(zhuǎn)向PPU平臺(tái)產(chǎn)品頒發(fā)ISO 26262功能安全證書

    上海2026年1月23日 /美通社/ -- 2026年1月20日,國(guó)際公認(rèn)的測(cè)試、檢驗(yàn)和認(rèn)證機(jī)構(gòu)SGS(以下簡(jiǎn)稱"SGS")為江蘇智汽車科技有限公司(以下簡(jiǎn)稱"江蘇智")自主研發(fā)的轉(zhuǎn)向PPU產(chǎn)品
    的頭像 發(fā)表于 01-25 20:12 ?287次閱讀
    SGS為江蘇智<b class='flag-5'>馭</b>轉(zhuǎn)向PPU平臺(tái)產(chǎn)品頒發(fā)ISO 26262功能安全證書

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    累計(jì)5000+分鐘內(nèi)容 二、課程優(yōu)勢(shì) 技術(shù)壁壘構(gòu)建: 形成\"視覺(jué)算法+運(yùn)動(dòng)控制+深度學(xué)習(xí)\"的復(fù)合技術(shù)棧,建立差異化競(jìng)爭(zhēng)優(yōu)勢(shì) 項(xiàng)目落地能力: 掌握從需求分析→方案設(shè)計(jì)→硬件選型
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    累計(jì)5000+分鐘內(nèi)容 二、課程優(yōu)勢(shì) 技術(shù)壁壘構(gòu)建: 形成\"視覺(jué)算法+運(yùn)動(dòng)控制+深度學(xué)習(xí)\"的復(fù)合技術(shù)棧,建立差異化競(jìng)爭(zhēng)優(yōu)勢(shì) 項(xiàng)目落地能力: 掌握從需求分析→方案設(shè)計(jì)→硬件選型
    發(fā)表于 12-03 13:50

    通往AGI之路道阻且長(zhǎng):為未來(lái)智能筑牢算力基礎(chǔ)

    倘若通往通用人工智能 (AGI) 的道路 與人類自身發(fā)展歷程如出一轍, 這將意味著什么? Arm 工程部機(jī)器學(xué)習(xí) (ML) 技術(shù)副總裁兼院士 Ian Bratt 認(rèn)為,這種可能性并非空穴來(lái)風(fēng)。在生
    的頭像 發(fā)表于 11-29 20:10 ?2038次閱讀

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    檢測(cè)應(yīng)用 微細(xì)缺陷識(shí)別:檢測(cè)肉眼難以發(fā)現(xiàn)的微小缺陷和異常 紋理分析:對(duì)材料表面紋理進(jìn)行智能分析和缺陷識(shí)別 3D表面重建:通過(guò)深度學(xué)習(xí)進(jìn)行高精度3D建模和檢測(cè) 電子行業(yè)應(yīng)用 PCB板復(fù)雜
    的頭像 發(fā)表于 11-27 10:19 ?318次閱讀

    【新啟航】深度學(xué)習(xí)在玻璃晶圓 TTV 厚度數(shù)據(jù)智能分析中的應(yīng)用

    。隨著深度學(xué)習(xí)在數(shù)據(jù)處理領(lǐng)域展現(xiàn)出強(qiáng)大能力,將其應(yīng)用于玻璃晶圓 TTV 厚度數(shù)據(jù)智能分析,有助于實(shí)現(xiàn)高精度、高效率的質(zhì)量檢測(cè)與工藝優(yōu)化,為行業(yè)發(fā)展提供新動(dòng)能。
    的頭像 發(fā)表于 10-11 13:32 ?774次閱讀
    【新啟航】<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在玻璃晶圓 TTV 厚度數(shù)據(jù)智能<b class='flag-5'>分析</b>中的應(yīng)用

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概
    的頭像 發(fā)表于 09-10 17:38 ?1039次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實(shí)施路徑三個(gè)維度展開分析: 一、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價(jià)值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)中70%以上的數(shù)據(jù)為非結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振動(dòng)波形、紅外圖像、日志文本),傳統(tǒng)方法難以
    的頭像 發(fā)表于 08-20 14:56 ?1187次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4353次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    存儲(chǔ)示波器的存儲(chǔ)深度對(duì)信號(hào)分析有什么影響?

    存儲(chǔ)深度(Memory Depth)是數(shù)字示波器的核心參數(shù)之一,它直接決定了示波器在單次采集過(guò)程中能夠記錄的采樣點(diǎn)數(shù)量。存儲(chǔ)深度對(duì)信號(hào)分析的影響貫穿時(shí)域細(xì)節(jié)捕捉、頻域分析精度、觸發(fā)穩(wěn)定
    發(fā)表于 05-27 14:39

    勢(shì)首款概念跑車亮相2025上海車展

    2025上海國(guó)際車展,騰勢(shì)首款概念跑車——騰勢(shì)Z震撼全球首秀,采用Pure Emotion“心流形·本真之境”全新設(shè)計(jì)理念,并將搭載中國(guó)首款全棧自研的線控轉(zhuǎn)向系統(tǒng)、云輦-M、全線控底盤、易三方等
    的頭像 發(fā)表于 04-25 16:22 ?869次閱讀

    再獲權(quán)威認(rèn)可!數(shù)勢(shì)科技上榜IDC中國(guó)AI Agent應(yīng)用市場(chǎng)全景圖報(bào)告

    智能體應(yīng)用領(lǐng)域的技術(shù)突破,成功入圍"數(shù)據(jù)分析"細(xì)分領(lǐng)域代表廠商,成為該賽道智能化轉(zhuǎn)型的標(biāo)桿企業(yè)。 數(shù)勢(shì)科技首發(fā)企業(yè)級(jí)決策分析智能體平臺(tái)SwiftAgent數(shù)勢(shì)科技SwiftAgent
    的頭像 發(fā)表于 04-21 13:52 ?1017次閱讀
    再獲權(quán)威認(rèn)可!數(shù)<b class='flag-5'>勢(shì)</b>科技上榜IDC中國(guó)AI Agent應(yīng)用市場(chǎng)全景圖報(bào)告
    启东市| 瓦房店市| 马山县| 南充市| 凤山县| 滕州市| 同江市| 昭苏县| 武宣县| 象山县| 临西县| 得荣县| 松阳县| 黄骅市| 乡城县| 濉溪县| 察隅县| 华安县| 沙雅县| 大悟县| 通州区| 海阳市| 若羌县| 无为县| 西安市| 牡丹江市| 临洮县| 江西省| 裕民县| 高淳县| 道孚县| 晋州市| 安溪县| 南澳县| 格尔木市| 射阳县| 浦县| 阿瓦提县| 阿鲁科尔沁旗| 赣榆县| 广州市|