哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的人臉識別算法與其網(wǎng)絡(luò)結(jié)構(gòu)

新機(jī)器視覺 ? 來源:CSDN技術(shù)社區(qū) ? 作者:weixin_39667398 ? 2021-03-12 11:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

度量學(xué)習(xí)

基于深度學(xué)習(xí)的人臉識別算法,如何讓神經(jīng)網(wǎng)絡(luò)從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)到有效、魯棒的生物特征是至關(guān)重要的。在這個(gè)過程中,一個(gè)良好的學(xué)習(xí)向?qū)遣豢苫蛉钡?。因此,在模型?xùn)練的過程中,通常使用度量學(xué)習(xí)的方式,將人物面部特征間的距離,作為神經(jīng)網(wǎng)絡(luò)特征學(xué)習(xí)的向?qū)?,來?shí)現(xiàn)區(qū)分不同人物的目的。

為了讓神經(jīng)網(wǎng)絡(luò)能夠更加有效的學(xué)習(xí),合理的設(shè)計(jì)損失函數(shù)來度量和映射人物特征之間的距離,成為了提高人臉識別精度的主要研究方向之一。許多在分類任務(wù)中常用的損失函數(shù),如Softmax Loss,在經(jīng)過一系列的改進(jìn)之后,更好的適應(yīng)了人臉識別的任務(wù)。像Arcface這樣的損失函數(shù)(下圖),利用了一種附加角度對cos值進(jìn)行加法約束,使得模型能夠在學(xué)習(xí)過程中合理的壓縮相同人物特征間的余弦距離的同時(shí)增大不同人物特征間的余弦距離,以此達(dá)到精準(zhǔn)區(qū)分人物的目的。

圖示展示在利用損失函數(shù)arcface訓(xùn)練一個(gè)深度卷積神經(jīng)網(wǎng)絡(luò)過程中的計(jì)算流程。其中的改進(jìn)在于,給角度加入了加性間隔m作為懲罰項(xiàng)來減小類間間距,并對其余弦值加入放縮s進(jìn)行放縮,讓網(wǎng)絡(luò)變得易于訓(xùn)練。

另一些損失函數(shù),如Triplet Loss(下圖),則是通過以特定規(guī)則從訓(xùn)練集中選擇樣例,提取特征,比較這些特征之間的距離,來達(dá)到聚類相同人物特征和離散不同人物特征的目的。可以看到,這種方法因?yàn)橐鸫伪葘x擇樣例特征之間的距離并基于此來優(yōu)化模型參數(shù),所以會(huì)延長模型訓(xùn)練的周期。但對于解決一些特殊場景下的困難樣例,會(huì)有較好的效果。

圖示為最初版本的Triplet Loss原理示意圖。訓(xùn)練過程中需要從訓(xùn)練集中選擇一個(gè)Anchor樣本以及與Anchor樣本同類的Positive樣本和與Anchor樣本異類的Negative樣本,在訓(xùn)練過程中不斷的拉近同類樣本的距離并遠(yuǎn)離異類樣本。

選擇不同的損失函數(shù),會(huì)對模型進(jìn)行識別任務(wù)時(shí)選用的距離公式(相似度計(jì)算方法)產(chǎn)生影響。例如,Triplet Loss在早期優(yōu)化的是歐氏距離,所以在后期進(jìn)行特征比對時(shí),利用歐式距離來計(jì)算特征之間相似度就是更加自然的。此外,通過對這些損失函數(shù)進(jìn)行變形,來統(tǒng)一各損失函數(shù)的優(yōu)化距離,從而使不同的損失函數(shù)能夠運(yùn)用在訓(xùn)練模型的不同階段,或?qū)⒉煌瑩p失函數(shù)對不同的樣例分配進(jìn)行結(jié)合,從而達(dá)到更高效的訓(xùn)練效率,也是目前的工作方向之一。

網(wǎng)絡(luò)結(jié)構(gòu)

根據(jù)使用場景和計(jì)算設(shè)備的不同,通常需要選擇不同規(guī)模的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。隨著人臉識別在移動(dòng)端的普及以及識別規(guī)模的增大,選用計(jì)算量更小、更高效的網(wǎng)絡(luò)結(jié)構(gòu)成為了重要的研究方向。

標(biāo)準(zhǔn)的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),以VGG16為例,通常由卷積層,池化層,全連接層和激活函數(shù)組成。該網(wǎng)絡(luò)通過反復(fù)堆疊3*3的小型卷積核和2*2的最大池化層,不斷加深網(wǎng)絡(luò)結(jié)構(gòu)來提升性能。

但隨著網(wǎng)絡(luò)結(jié)構(gòu)的進(jìn)一步加深,網(wǎng)絡(luò)參數(shù)會(huì)隨之增多,運(yùn)算開銷會(huì)變得很大,增加運(yùn)算成本。同時(shí),網(wǎng)絡(luò)結(jié)構(gòu)的加深也會(huì)讓網(wǎng)絡(luò)發(fā)生退化現(xiàn)象,以至于在進(jìn)一步訓(xùn)練時(shí)無法達(dá)到預(yù)期的精度。

為解決這些問題,設(shè)計(jì)出參數(shù)少,深度深,運(yùn)算快,易于訓(xùn)練的輕量級網(wǎng)絡(luò)網(wǎng)絡(luò),各種卷積結(jié)構(gòu)和模塊被逐步引入到了卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)構(gòu)架中。

殘差模塊:為解決加深網(wǎng)絡(luò)后的網(wǎng)絡(luò)退化問題,使深度網(wǎng)絡(luò)變得可訓(xùn)練而提出的結(jié)構(gòu)(見下圖)。這種跳躍連接的結(jié)構(gòu)讓網(wǎng)絡(luò)有能力在需要的時(shí)候擬合一個(gè)潛在的恒等映射函數(shù),從而避免了在極深網(wǎng)絡(luò)中出現(xiàn)的難以訓(xùn)練的問題。

分組卷積:在標(biāo)準(zhǔn)的卷積操作中,其參數(shù)量與輸入特征圖通道數(shù),卷積核尺寸和輸出特征圖通道數(shù)有關(guān)。如圖,若輸入特征圖尺寸為H*W*c1,卷積核尺寸為h1*w1*c1,輸出特征圖尺寸為H*W*c2,標(biāo)準(zhǔn)卷幾層的參數(shù)量則為:h1*w1*c1*c2。

若使用分組卷積(見下圖),事先將輸入的特征圖按照通道數(shù)分為g組,分組卷積的參數(shù)量為則會(huì)變成標(biāo)準(zhǔn)卷積參數(shù)量的1/g:h1*w1*c1*c2/g。

分組卷積能夠在一定程度上降低卷積的參數(shù)量,但也會(huì)減弱各通道之間的相關(guān)性。

深度可分離卷積:深度可分離卷積操作是將普通卷積拆解成深度卷積和逐點(diǎn)卷積。深度卷積負(fù)責(zé)濾波,逐點(diǎn)卷積負(fù)責(zé)轉(zhuǎn)換通道。

如圖(a),對于標(biāo)準(zhǔn)卷積,其參數(shù)量為Dk*Dk*M*N。如圖(b),對于深度卷積,其參數(shù)量為:Dk*Dk*1*M。 如圖(c),對于逐點(diǎn)卷積,其參數(shù)量為:1*1*M*N。將兩項(xiàng)操作合并,可知深度可分離卷積參數(shù)量 是標(biāo)準(zhǔn)卷積的:(1/N)+(1/Dk**2)。

cafaa5e6-82ca-11eb-8b86-12bb97331649.png

棄用池化層:池化層分為平均池化和最大池化,通過制定規(guī)則對池化核覆蓋范圍內(nèi)的像素進(jìn)行運(yùn)算,達(dá)到學(xué)習(xí)圖像邊緣及紋理結(jié)構(gòu),同時(shí)壓縮特征圖的效果。但池化層常常會(huì)導(dǎo)致較多的信息損失,因此,通常使用控制卷積核在特征圖上的滑動(dòng)步長(如設(shè)定stride=2),來達(dá)到壓縮特征圖,提取圖像特征的目的。

減少全連接層:因?yàn)槿B接層需要將每個(gè)神經(jīng)元節(jié)點(diǎn)與其前后層的神經(jīng)元分別連接,其通常會(huì)占據(jù)卷積神經(jīng)網(wǎng)絡(luò)的大部分參數(shù)。為了減少模型的參數(shù),會(huì)盡量減少全連接層的使用,通常利用全劇平均池化或大尺寸卷積核取代全連接層,來融合學(xué)到的特征。

同時(shí),為了讓模型能夠更好的提取人物面部的特征,專門的人臉識別網(wǎng)絡(luò)在這些方面進(jìn)行了優(yōu)化,例如mobilefacenet在卷積網(wǎng)絡(luò)的尾部加入7*7卷積核壓縮特征圖,直接將特征圖轉(zhuǎn)化成相應(yīng)維度的面部特征并送入全連接層這樣的操作。對于一些特殊場景下的識別任務(wù),則會(huì)根據(jù)需求,定制出相應(yīng)的結(jié)構(gòu)模塊。例如,在面對面部遮擋的任務(wù)中,融入空間注意力機(jī)制,實(shí)現(xiàn)事先為特征熱力圖的空間分布的加權(quán),就變得相對重要。
編輯:lyn

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    瑞芯微(EASY EAI)RV1126B 人臉98關(guān)鍵點(diǎn)算法識別

    的影響,人臉關(guān)鍵點(diǎn)定位也是一個(gè)賦有挑戰(zhàn)性的任務(wù)工作。人臉關(guān)鍵點(diǎn)的檢測有許多重要的應(yīng)用場景。l人臉姿態(tài)對齊:人臉識別
    的頭像 發(fā)表于 04-03 10:39 ?129次閱讀
    瑞芯微(EASY EAI)RV1126B <b class='flag-5'>人臉</b>98關(guān)鍵點(diǎn)<b class='flag-5'>算法</b><b class='flag-5'>識別</b>

    基于AIK-RA8D1的人臉識別的應(yīng)用演示

    與Aizip人臉識別技術(shù)結(jié)合,實(shí)現(xiàn)高效且低功耗的人臉識別應(yīng)用。人臉識別的優(yōu)勢傳統(tǒng)的密碼驗(yàn)證方式存
    的頭像 發(fā)表于 12-02 14:29 ?5631次閱讀
    基于AIK-RA8D1<b class='flag-5'>的人臉</b><b class='flag-5'>識別</b>的應(yīng)用演示

    人臉識別門禁終端哪家做的比較好

    在智能化管理浪潮下,人臉識別門禁終端已成為企業(yè)、高校、政府機(jī)關(guān)等場景的剛需設(shè)備,其便捷性與安全性徹底改變了傳統(tǒng)門禁的管理模式。面對市場上眾多品牌,選擇一款靠譜的人臉識別門禁終端至關(guān)重要
    的頭像 發(fā)表于 11-20 16:18 ?521次閱讀
    <b class='flag-5'>人臉</b><b class='flag-5'>識別</b>門禁終端哪家做的比較好

    門禁人臉識別:打造高效智能的人臉識別門禁考勤解決方案

    在物聯(lián)網(wǎng)與人工智能技術(shù)深度融合的今天,門禁管理與考勤統(tǒng)計(jì)作為場所安全與效率管理的核心環(huán)節(jié),正經(jīng)歷著從傳統(tǒng)模式向智能化的全面升級。門禁人臉識別技術(shù)的崛起,讓人臉
    的頭像 發(fā)表于 11-18 15:28 ?500次閱讀
    門禁<b class='flag-5'>人臉</b><b class='flag-5'>識別</b>:打造高效智能<b class='flag-5'>的人臉</b><b class='flag-5'>識別</b>門禁考勤解決方案

    基于級聯(lián)分類器的人臉檢測基本原理

    本次分享的內(nèi)容是基于級聯(lián)分類器的人臉檢測基本原理 1) 人臉檢測概述 關(guān)于人臉檢測算法,目前主流方法分為兩類,一類是基于知識,主要方法包括模板匹配,
    發(fā)表于 10-30 06:14

    如何挑選人臉識別終端?人臉識別一體機(jī)品牌排行榜

    考慮這些人臉識別終端的具體應(yīng)用場景在哪里。下面,小編就總結(jié)了2025年最新的人臉識別一體機(jī)品牌排行榜:一、??低?b class='flag-5'>人臉門禁一體機(jī)優(yōu)勢:采用先
    的頭像 發(fā)表于 08-18 10:44 ?2338次閱讀
    如何挑選<b class='flag-5'>人臉</b><b class='flag-5'>識別</b>終端?<b class='flag-5'>人臉</b><b class='flag-5'>識別</b>一體機(jī)品牌排行榜

    【Milk-V Duo S 開發(fā)板免費(fèi)體驗(yàn)】基于Duo S 使用 TDL SDK(V1版本)

    地將各種深度學(xué)習(xí)技術(shù)應(yīng)用于自己的產(chǎn)品和服務(wù)中。無論開發(fā)者是否是深度學(xué)習(xí)領(lǐng)域的專家,有了TDL SDK作為助手,都能輕松構(gòu)建智能應(yīng)用。 目前 TDL SDK 包含 移動(dòng)偵測,
    發(fā)表于 08-10 22:09

    【Milk-V Duo S 開發(fā)板免費(fèi)體驗(yàn)】人臉檢測

    ; 打開 VLC 軟件,依次選擇 文件 - 打開網(wǎng)絡(luò)串流設(shè)備 ; 輸入 RTSP 推流地址,點(diǎn)擊播放按鈕; 獲取和顯示攝像頭采集的畫面。 單張人臉識別 將攝像頭對準(zhǔn)人臉,當(dāng)畫面采集
    發(fā)表于 07-27 16:53

    人臉方向識別算法

    人臉識別
    深蕾半導(dǎo)體
    發(fā)布于 :2025年07月22日 09:58:29

    【EASY EAI Orin Nano開發(fā)板試用體驗(yàn)】EASY-EAI-Toolkit人臉識別

    本篇使用算法組件實(shí)現(xiàn)人臉檢測。 一.準(zhǔn)備工作 1.首先使用到EASY-EAI-Toolkit組件,ubuntu掛載目錄下克隆git clone https://github.com/EASY-EAI
    發(fā)表于 07-20 14:40

    基于LockAI視覺識別模塊:C++人臉識別

    是實(shí)現(xiàn)人臉識別的常用方法: 深度學(xué)習(xí)方法:現(xiàn)代的人臉識別系統(tǒng)大多采用
    發(fā)表于 07-01 12:01

    基于LockAI視覺識別模塊:C++人臉識別

    本文基于RV1106做成的LockAI視覺識別模塊,采用LZ-Picodet模型訓(xùn)練的人臉檢測模型LZ-Face,以及ArcFace人臉識別模型,實(shí)現(xiàn)
    的頭像 發(fā)表于 07-01 10:09 ?1033次閱讀
    基于LockAI視覺<b class='flag-5'>識別</b>模塊:C++<b class='flag-5'>人臉</b><b class='flag-5'>識別</b>

    選擇戶外場景的人臉識別門禁一體機(jī),需要具備哪些條件?

    我們常用于企業(yè)打卡或單位校園門禁的人臉識別身份核驗(yàn)終端、刷臉核驗(yàn)一體機(jī)、人臉識別門禁考勤機(jī)或人臉識別
    的頭像 發(fā)表于 06-09 10:26 ?1136次閱讀
    選擇戶外場景<b class='flag-5'>的人臉</b><b class='flag-5'>識別</b>門禁一體機(jī),需要具備哪些條件?

    人臉識別解決方案:智能安防與高效管理的創(chuàng)新之選

    人臉識別門禁系統(tǒng)在智慧城市、園區(qū)管理、社區(qū)安防、企業(yè)考勤等領(lǐng)域得到廣泛應(yīng)用。本方案聚焦于高效穩(wěn)定的人臉識別系統(tǒng)架構(gòu)設(shè)計(jì),通過硬件設(shè)備與網(wǎng)絡(luò)
    的頭像 發(fā)表于 05-13 15:43 ?1357次閱讀
    <b class='flag-5'>人臉</b><b class='flag-5'>識別</b>解決方案:智能安防與高效管理的創(chuàng)新之選

    基于RK3576開發(fā)板的人臉識別算法

    RK3576開發(fā)板展示人臉識別算法例程和API說明
    的頭像 發(fā)表于 05-07 16:48 ?2895次閱讀
    基于RK3576開發(fā)板<b class='flag-5'>的人臉</b><b class='flag-5'>識別</b><b class='flag-5'>算法</b>
    讷河市| 临朐县| 林周县| 清水县| 湾仔区| 施甸县| 株洲县| 许昌县| 乌拉特中旗| 通许县| 高碑店市| 桃园县| 普格县| 玉环县| 苗栗县| 通城县| 安平县| 韶关市| 海兴县| 宣恩县| 望都县| 江永县| 莫力| 汉川市| 龙胜| 蓬莱市| 永昌县| 大安市| 灌阳县| 博客| 逊克县| 贵定县| 古交市| 余江县| 福泉市| 涿鹿县| 宜兴市| 中山市| 景洪市| 黔南| 承德县|