哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

三種卷積神經(jīng)網(wǎng)絡(luò)模型:Light-CNN,雙分支CNN和預(yù)先訓(xùn)練的CNN

倩倩 ? 來源:老胡說科學(xué) ? 2020-04-17 10:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上海電力大學(xué)的兩位研究人員最近開發(fā)并評估了野生人臉表情識別(FER)的新神經(jīng)網(wǎng)絡(luò)模型。他們的研究發(fā)表在Elsevier的Neurocomputing期刊上,提出了三種卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型:Light-CNN,雙分支CNN和預(yù)先訓(xùn)練的CNN。

“由于缺乏關(guān)于非正面的信息,野外的FER是計算機(jī)視覺中的一個難點,”進(jìn)行這項研究的研究人員之一錢永生告訴TechXplore?!盎谏疃染矸e神經(jīng)網(wǎng)絡(luò)(CNN)的現(xiàn)有自然面部表情識別方法存在一些問題,包括過擬合,高計算復(fù)雜度,單一特征和有限樣本?!?/p>

盡管許多研究人員已經(jīng)開發(fā)了用于FER的CNN方法,但到目前為止,他們中很少有人試圖確定哪種類型的網(wǎng)絡(luò)最適合這一特定任務(wù)。意識到文獻(xiàn)中的這種差距,永勝和他的同事邵杰為FER開發(fā)了三種不同的CNN,并進(jìn)行了一系列的評估,以確定他們的優(yōu)勢和劣勢。

“我們的第一個模型是淺光CNN,它引入了一個深度可分離的模塊和剩余的網(wǎng)絡(luò)模塊,通過改變卷積方法來減少網(wǎng)絡(luò)參數(shù),”永勝說?!暗诙€是雙分支CNN,它結(jié)合了全局特征和局部紋理特征,試圖獲得更豐富的特征并補(bǔ)償卷積旋轉(zhuǎn)不變性的缺乏。第三個預(yù)訓(xùn)練的CNN使用在同一個分布式大型數(shù)據(jù)庫中訓(xùn)練的權(quán)重重新培訓(xùn)自己的小型數(shù)據(jù)庫,縮短培訓(xùn)時間,提高識別率。“

研究人員對三種常用于FER的數(shù)據(jù)集進(jìn)行了CNN模型的廣泛評估:公共CK +,多視圖BU-3DEF和FER2013數(shù)據(jù)集。盡管三種CNN模型在性能上存在差異,但它們都取得了可喜的成果,優(yōu)于幾種最先進(jìn)的FER方法。

“目前,這三種CNN型號是分開使用的,”永勝解釋說。“淺網(wǎng)絡(luò)更適合嵌入式硬件。預(yù)訓(xùn)練的CNN可以獲得更好的效果,但需要預(yù)先訓(xùn)練的權(quán)重。雙分支網(wǎng)絡(luò)不是很有效。當(dāng)然,也可以嘗試使用這三種模式一起。”

在他們的評估中,研究人員觀察到,通過組合剩余網(wǎng)絡(luò)模塊和深度可分離模塊,就像他們?yōu)榈谝粋€CNN模型所做的那樣,可以減少網(wǎng)絡(luò)參數(shù)。這最終可以解決計算硬件的一些缺點。此外,他們發(fā)現(xiàn)預(yù)先訓(xùn)練的CNN 模型將大型數(shù)據(jù)庫轉(zhuǎn)移到自己的數(shù)據(jù)庫,因此可以用有限的樣本進(jìn)行訓(xùn)練。

永勝和杰提出的三個針對FER的CNN可以有許多應(yīng)用,例如,幫助開發(fā)能夠識別他們正在與之交互的人的面部表情的機(jī)器人。研究人員現(xiàn)在計劃對他們的模型進(jìn)行額外調(diào)整,以進(jìn)一步提高他們的表現(xiàn)。

“在我們未來的工作中,我們將嘗試添加不同的傳統(tǒng)手動功能,加入雙分支CNN并改變?nèi)诤夏J?,”永勝說?!拔覀冞€將使用跨數(shù)據(jù)庫培訓(xùn)網(wǎng)絡(luò)參數(shù)來獲得更好的泛化能力,并采用更有效的深度傳輸學(xué)習(xí)方法?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    FPGA實現(xiàn)CNN卷積層的高效窗口生成模塊設(shè)計與驗證

    卷積神經(jīng)網(wǎng)絡(luò)CNN)可以分為卷積層、池化層、激活層、全鏈接層結(jié)構(gòu),本篇要實現(xiàn)的,就是CNN卷積
    的頭像 發(fā)表于 04-15 10:35 ?136次閱讀
    FPGA實現(xiàn)<b class='flag-5'>CNN</b><b class='flag-5'>卷積</b>層的高效窗口生成模塊設(shè)計與驗證

    卷積神經(jīng)網(wǎng)絡(luò)如何讓自動駕駛識別障礙物?

    自動駕駛的發(fā)展過程中,感知系統(tǒng)一直承擔(dān)車輛“眼睛”的角色,其核心任務(wù)是讓計算機(jī)理解復(fù)雜多變的物理世界。卷積神經(jīng)網(wǎng)絡(luò)CNN)作為一專門用于處理圖像和視頻等網(wǎng)格狀數(shù)據(jù)結(jié)構(gòu)的深度學(xué)習(xí)
    的頭像 發(fā)表于 04-11 09:59 ?1424次閱讀
    <b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>如何讓自動駕駛識別障礙物?

    Transformer如何讓自動駕駛變得更聰明?

    ]自動駕駛中常提的Transformer本質(zhì)上是一神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語言處理里火起來。與卷積神經(jīng)網(wǎng)絡(luò)CNN)或循環(huán)
    的頭像 發(fā)表于 11-19 18:17 ?2450次閱讀

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一專門用來處理網(wǎng)格狀
    的頭像 發(fā)表于 11-19 18:15 ?2240次閱讀
    自動駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    一些神經(jīng)網(wǎng)絡(luò)加速器的設(shè)計優(yōu)化方案

    特征圖保留不變,完成和所有相關(guān)卷積核點積以后再加載,最多復(fù)用 R*R*M 次。 3.不同網(wǎng)絡(luò)模型的效果 如圖所示,后者相對于前者,減少了連線資源和復(fù)雜度。 4.DNN加速器空間架構(gòu)片上存儲
    發(fā)表于 10-31 07:14

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網(wǎng)絡(luò)粗略分共有7層,細(xì)分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹:
    發(fā)表于 10-29 07:49

    NMSISI庫的使用

    (q7_t) 和 16 位整數(shù) (q15_t)。 卷積神經(jīng)網(wǎng)絡(luò)示例: 本示例中使用的 CNN 基于來自 Caffe 的 CIFAR-10 示例。神經(jīng)網(wǎng)絡(luò)由 3 個
    發(fā)表于 10-29 07:07

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    (q7_t) 和 16 位整數(shù) (q15_t)。 卷積神經(jīng)網(wǎng)絡(luò)示例: 本示例中使用的 CNN 基于來自 Caffe 的 CIFAR-10 示例。神經(jīng)網(wǎng)絡(luò)由 3 個
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個模型非常巨大。所以要想實現(xiàn)輕量級的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積
    發(fā)表于 10-28 08:02

    卷積運(yùn)算分析

    的數(shù)據(jù),故設(shè)計了ConvUnit模塊實現(xiàn)單個感受域規(guī)模的卷積運(yùn)算. 卷積運(yùn)算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò)CNN模型,用于手寫數(shù)字識別。一旦
    發(fā)表于 10-22 07:03

    使用OpenVINO將PP-OCRv5模型部署在Intel顯卡上

    是一個用于優(yōu)化和部署人工智能(AI)模型,提升AI推理性能的開源工具集合,不僅支持以卷積神經(jīng)網(wǎng)絡(luò)(CNN)為核心組件的預(yù)測式AI模型(Pre
    的頭像 發(fā)表于 09-20 11:17 ?1399次閱讀
    使用OpenVINO將PP-OCRv5<b class='flag-5'>模型</b>部署在Intel顯卡上

    MAX78000采用超低功耗卷積神經(jīng)網(wǎng)絡(luò)加速度計的人工智能微控制器技術(shù)手冊

    的Maxim超低功耗微控制器相結(jié)合。通過這款基于硬件的卷積神經(jīng)網(wǎng)絡(luò)(CNN)加速器,即使是電池供電的應(yīng)用也可執(zhí)行AI推理,同時功耗僅為微焦耳級。
    的頭像 發(fā)表于 05-08 11:42 ?1129次閱讀
    MAX78000采用超低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>加速度計的人工智能微控制器技術(shù)手冊

    MAX78002帶有低功耗卷積神經(jīng)網(wǎng)絡(luò)加速器的人工智能微控制器技術(shù)手冊

    的Maxim超低功耗微控制器相結(jié)合。通過這款基于硬件的卷積神經(jīng)網(wǎng)絡(luò)(CNN)加速器,即使是電池供電的應(yīng)用也可執(zhí)行AI推理,同時功耗僅為微焦耳級。
    的頭像 發(fā)表于 05-08 10:16 ?1015次閱讀
    MAX78002帶有低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>加速器的人工智能微控制器技術(shù)手冊

    在友晶LabCloud平臺上使用PipeCNN實現(xiàn)ImageNet圖像分類

    利用深度卷積神經(jīng)網(wǎng)絡(luò)CNN)進(jìn)行圖像分類是通過使用多個卷積層來從輸入數(shù)據(jù)中提取特征,最后通過分類層做決策來識別出目標(biāo)物體。
    的頭像 發(fā)表于 04-23 09:42 ?1208次閱讀
    在友晶LabCloud平臺上使用PipeCNN實現(xiàn)ImageNet圖像分類
    吴桥县| 仁布县| 宁武县| 山东省| 河津市| 丰城市| 盐亭县| 林芝县| 九寨沟县| 保山市| 浦北县| 蒙阴县| 缙云县| 杭锦后旗| 济宁市| 阿瓦提县| 峨山| 凤翔县| 乌什县| 资中县| 辉县市| 沈阳市| 莱阳市| 曲周县| 剑阁县| 仙游县| 新宾| 江永县| 东海县| 岳普湖县| 鲁甸县| 永吉县| 柞水县| 五莲县| 维西| 修水县| 阿合奇县| 鹰潭市| 大姚县| 昌图县| 海林市|