哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

首個(gè)語(yǔ)法生成網(wǎng)絡(luò) 視覺(jué)識(shí)別優(yōu)于當(dāng)前最先進(jìn)框架

DPVg_AI_era ? 來(lái)源:fqj ? 2019-06-05 11:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是提高深度神經(jīng)網(wǎng)絡(luò)性能的基礎(chǔ)。研究人員開(kāi)發(fā)出了首個(gè)通過(guò)語(yǔ)法引導(dǎo)的神經(jīng)網(wǎng)絡(luò)生成器AOGNets,它能更有效地在原始數(shù)據(jù)中提取信息,在圖像分類(lèi)、目標(biāo)檢測(cè)和分割方面的表現(xiàn)優(yōu)于包括ResNets、DenseNets、ResNeXts和DualPathNets在內(nèi)最先進(jìn)的神經(jīng)網(wǎng)絡(luò)。

北卡羅萊納州立大學(xué)的研究人員開(kāi)發(fā)了一個(gè)通過(guò)語(yǔ)法指導(dǎo)的網(wǎng)絡(luò)生成器來(lái)打造深度神經(jīng)網(wǎng)絡(luò)的新框架。在實(shí)驗(yàn)測(cè)試中,被稱(chēng)為AOGNets的新網(wǎng)絡(luò)在視覺(jué)識(shí)別任務(wù)方面優(yōu)于現(xiàn)有的最先進(jìn)的框架,包括廣泛使用的ResNet和DenseNet系統(tǒng)。

作為這項(xiàng)研究中一篇論文的作者,北卡羅萊納州立大學(xué)電子與計(jì)算機(jī)工程副教授吳田富博士說(shuō):“與我們對(duì)比過(guò)的任何一個(gè)網(wǎng)絡(luò)相比,AOGNets都具有更好的預(yù)測(cè)精度?!?AOGNets也更容易解釋?zhuān)@意味著用戶(hù)可以看到系統(tǒng)是如何得出結(jié)論的?!?/p>

新框架對(duì)系統(tǒng)架構(gòu)使用了一個(gè)組合語(yǔ)法方法,該方法可以從以前的網(wǎng)絡(luò)系統(tǒng)上獲取最佳實(shí)踐,從而更有效地從原始數(shù)據(jù)中提取有用的信息。

吳教授說(shuō):“我們發(fā)現(xiàn),層次和組合語(yǔ)法為我們提供了一種簡(jiǎn)單、優(yōu)雅的方法來(lái)統(tǒng)一以前系統(tǒng)架構(gòu)所采用的方法,據(jù)我們所知,這是第一個(gè)將語(yǔ)法用于網(wǎng)絡(luò)生成的成果?!?/p>

為了測(cè)試他們的新框架,研究人員開(kāi)發(fā)了AOGNets,并將其用三個(gè)圖像分類(lèi)基準(zhǔn)(CIFAR-10、CIFAR-100和ImageNet-1K)進(jìn)行了測(cè)試。

“在公平比較下,AOGNets的表現(xiàn)明顯優(yōu)于其他所有最先進(jìn)的網(wǎng)絡(luò),包括ResNets, DenseNets, ResNeXts和DualPathNets?!?吳田富說(shuō):”利用圖像網(wǎng)絡(luò)中的網(wǎng)絡(luò)剖分度量,AOGNets獲得了最高的模型可解釋性分。AOGNets在對(duì)抗性防御和平臺(tái)不可知( platform-agnostic)部署(移動(dòng)vs云)方面進(jìn)一步顯示出巨大的潛力?!?/p>

研究人員還使用vanilla Mask R-CNN系統(tǒng)在微軟Coco基準(zhǔn)測(cè)試中測(cè)試了AOGNets在目標(biāo)檢測(cè)和實(shí)例語(yǔ)義分割方面的表現(xiàn)。

“在模型尺寸更小、推理時(shí)間相似或更短的情況下,AOGNets比ResNet和ResNeXt獲得了更好的結(jié)果?!?吳教授表示:“結(jié)果表明,在目標(biāo)檢測(cè)和分割任務(wù)中,AOGNets具有較好的學(xué)習(xí)效果?!?/p>

這些測(cè)試是相關(guān)的,因?yàn)閳D像分類(lèi)是視覺(jué)識(shí)別的核心基礎(chǔ)任務(wù)之一,而ImageNet是標(biāo)準(zhǔn)的大規(guī)模分類(lèi)基準(zhǔn)。同樣,目標(biāo)檢測(cè)和分割是兩個(gè)核心的高級(jí)視覺(jué)任務(wù),而MS-COCO是最廣泛使用的基準(zhǔn)之一。

“為了評(píng)估用于視覺(jué)識(shí)別中進(jìn)行深度學(xué)習(xí)的新網(wǎng)絡(luò)體系結(jié)構(gòu),它們是黃金試驗(yàn)臺(tái)。” 吳田富說(shuō)道:“AOGNets是在一個(gè)有原則的語(yǔ)法框架下開(kāi)發(fā)的,并在ImageNet和MS-COCO下都得到了顯著的改進(jìn),從而對(duì)許多實(shí)際應(yīng)用中的表示學(xué)習(xí)顯示出潛在的廣泛和深刻的影響。”

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:AOGNets:首個(gè)語(yǔ)法生成網(wǎng)絡(luò),視覺(jué)識(shí)別優(yōu)于當(dāng)前最先進(jìn)框架

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    商湯科技NEO-unify如何打造原生視覺(jué)語(yǔ)言理解與生成

    當(dāng)前,多模態(tài)模型普遍采用“視覺(jué)編碼器(VE)用于理解,變分自編碼器(VAE)用于生成”的組合式設(shè)計(jì)。這套范式雖行之有效,卻也內(nèi)在割裂了感知與創(chuàng)造,常面臨模塊協(xié)同與效率權(quán)衡的挑戰(zhàn)。
    的頭像 發(fā)表于 03-10 14:37 ?409次閱讀
    商湯科技NEO-unify如何打造原生<b class='flag-5'>視覺(jué)</b>語(yǔ)言理解與<b class='flag-5'>生成</b>

    愛(ài)立信攜手DNB斬獲全球首個(gè)自智網(wǎng)絡(luò)L4級(jí)認(rèn)證

    馬來(lái)西亞的DNB 5G網(wǎng)絡(luò)已獲得全球認(rèn)可,被視為最先進(jìn)網(wǎng)絡(luò)之一,并榮獲TM Forum頒發(fā)的全球首個(gè)服務(wù)保障L4自智認(rèn)證。該認(rèn)證基于愛(ài)立信的基于AI的意圖驅(qū)動(dòng)運(yùn)營(yíng)解決方案(IBO),
    的頭像 發(fā)表于 11-18 09:06 ?7118次閱讀

    語(yǔ)法糾錯(cuò)和testbench的自動(dòng)生成

    檢查語(yǔ)法錯(cuò)誤,并將結(jié)果列在問(wèn)題中: 比如我在81行少打了一個(gè)分號(hào),錯(cuò)誤會(huì)自動(dòng)報(bào)出。 4.testbench自動(dòng)生成 需要在拓展中輸入Verilog_testbench,找到如下拓展: 安裝成功后
    發(fā)表于 10-27 07:07

    nuclei studio生成的c語(yǔ)言文件是不支持c的語(yǔ)法嗎?

    nuclei studio 生成的c語(yǔ)言文件感覺(jué)不支持c的語(yǔ)法,因?yàn)閯偸褂眠@個(gè)軟件,還請(qǐng)各位大佬幫忙看看
    發(fā)表于 10-20 11:02

    目前最先進(jìn)的半導(dǎo)體工藝水平介紹

    當(dāng)前全球半導(dǎo)體工藝水平已進(jìn)入納米級(jí)突破階段,各大廠商在制程節(jié)點(diǎn)、材料創(chuàng)新、封裝技術(shù)和能效優(yōu)化等方面展開(kāi)激烈競(jìng)爭(zhēng)。以下是目前最先進(jìn)的半導(dǎo)體工藝水平的詳細(xì)介紹: 一、制程工藝突破 英特爾18A(約
    的頭像 發(fā)表于 10-15 13:58 ?2499次閱讀

    無(wú)人機(jī)AI視覺(jué)行為識(shí)別系統(tǒng)

    無(wú)人機(jī)AI視覺(jué)行為識(shí)別系統(tǒng) 隨著無(wú)人機(jī)技術(shù)的快速發(fā)展和計(jì)算機(jī)視覺(jué)領(lǐng)域的突破性進(jìn)展,無(wú)人機(jī)AI視覺(jué)行為識(shí)別系統(tǒng)應(yīng)運(yùn)而生。傳統(tǒng)監(jiān)控系統(tǒng)受限于固定
    的頭像 發(fā)表于 07-04 16:53 ?1207次閱讀

    基于LockAI視覺(jué)識(shí)別模塊:C++人臉識(shí)別

    本文基于RV1106做成的LockAI視覺(jué)識(shí)別模塊,采用 LZ-Picodet 模型訓(xùn)練的人臉檢測(cè)模型 LZ-Face,以及ArcFace人臉識(shí)別模型,實(shí)現(xiàn)人臉識(shí)別系統(tǒng)。 源代碼:ht
    發(fā)表于 07-01 12:01

    基于LockAI視覺(jué)識(shí)別模塊:C++人臉識(shí)別

    本文基于RV1106做成的LockAI視覺(jué)識(shí)別模塊,采用LZ-Picodet模型訓(xùn)練的人臉檢測(cè)模型LZ-Face,以及ArcFace人臉識(shí)別模型,實(shí)現(xiàn)人臉識(shí)別系統(tǒng)。
    的頭像 發(fā)表于 07-01 10:09 ?1074次閱讀
    基于LockAI<b class='flag-5'>視覺(jué)</b><b class='flag-5'>識(shí)別</b>模塊:C++人臉<b class='flag-5'>識(shí)別</b>

    基于LockAI視覺(jué)識(shí)別模塊:手寫(xiě)數(shù)字識(shí)別

    手寫(xiě)數(shù)字識(shí)別是一種經(jīng)典的模式識(shí)別和圖像處理問(wèn)題,旨在通過(guò)計(jì)算機(jī)自動(dòng)識(shí)別用戶(hù)手寫(xiě)的數(shù)字。 本文將教會(huì)你如何使用基于RV1106的 LockAI視覺(jué)識(shí)別
    發(fā)表于 06-30 16:45

    基于LockAI視覺(jué)識(shí)別模塊:手寫(xiě)數(shù)字識(shí)別

    手寫(xiě)數(shù)字識(shí)別是一種經(jīng)典的模式識(shí)別和圖像處理問(wèn)題,旨在通過(guò)計(jì)算機(jī)自動(dòng)識(shí)別用戶(hù)手寫(xiě)的數(shù)字。本文將教會(huì)你如何使用基于RV1106的LockAI視覺(jué)識(shí)別
    的頭像 發(fā)表于 06-30 15:44 ?1280次閱讀
    基于LockAI<b class='flag-5'>視覺(jué)</b><b class='flag-5'>識(shí)別</b>模塊:手寫(xiě)數(shù)字<b class='flag-5'>識(shí)別</b>

    基于LockAI視覺(jué)識(shí)別模塊:C++條碼識(shí)別

    條碼識(shí)別視覺(jué)模塊經(jīng)常使用到的功能之一,經(jīng)常用于識(shí)別超市的貨物信息。本文我們將演示如何基于瑞芯微RV1106的LockAI視覺(jué)識(shí)別進(jìn)行條碼
    發(fā)表于 05-27 10:26

    基于LockAI視覺(jué)識(shí)別模塊:C++條碼識(shí)別

    條碼識(shí)別視覺(jué)模塊經(jīng)常使用到的功能之一,經(jīng)常用于識(shí)別超市的貨物信息。本文我們將演示如何基于瑞芯微RV1106的LockAI視覺(jué)識(shí)別進(jìn)行條碼
    的頭像 發(fā)表于 05-27 09:32 ?983次閱讀
    基于LockAI<b class='flag-5'>視覺(jué)</b><b class='flag-5'>識(shí)別</b>模塊:C++條碼<b class='flag-5'>識(shí)別</b>

    基于LockAI視覺(jué)識(shí)別模塊:C++二維碼識(shí)別

    二維碼識(shí)別視覺(jué)模塊經(jīng)常使用到的功能之一。我們將演示如何使用基于瑞芯微RV1106的LockAI視覺(jué)識(shí)別模塊進(jìn)行二維碼識(shí)別。
    的頭像 發(fā)表于 05-26 09:42 ?1163次閱讀
    基于LockAI<b class='flag-5'>視覺(jué)</b><b class='flag-5'>識(shí)別</b>模塊:C++二維碼<b class='flag-5'>識(shí)別</b>

    Gemini API集成Google圖像生成模型Imagen 3

    開(kāi)發(fā)者現(xiàn)在可以通過(guò) Gemini API 訪問(wèn) Google 最先進(jìn)的圖像生成模型 Imagen 3。該模型最初僅對(duì)付費(fèi)用戶(hù)開(kāi)放,不久后也將面向免費(fèi)用戶(hù)推出。
    的頭像 發(fā)表于 05-14 16:53 ?1459次閱讀

    基于LockAI視覺(jué)識(shí)別模塊:C++圖像采集例程

    本文主要演示如何使用LockAI視覺(jué)識(shí)別模塊進(jìn)行視頻流的讀取,同時(shí)使用Edit模塊進(jìn)行圖像傳輸?;A(chǔ)知識(shí)講解1.1OpenCV簡(jiǎn)介OpenCV(OpenSourceComputerVisionLibra
    的頭像 發(fā)表于 04-30 18:23 ?885次閱讀
    基于LockAI<b class='flag-5'>視覺(jué)</b><b class='flag-5'>識(shí)別</b>模塊:C++圖像采集例程
    华安县| 达拉特旗| 汕头市| 江津市| 买车| 故城县| 满城县| 卓尼县| 蓬安县| 巧家县| 阿坝| 商南县| 广汉市| 临沂市| 京山县| 老河口市| 萍乡市| 兴业县| 乌兰察布市| 本溪市| 驻马店市| 凤城市| 谷城县| 多伦县| 定州市| 台东市| 枣阳市| 晋宁县| 杨浦区| 商洛市| 诸暨市| 拉萨市| 胶南市| 红河县| 海门市| 綦江县| 江达县| 凉城县| 株洲县| 天水市| 镇宁|