哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡CNN的簡單理論介紹

自然語言處理愛好者 ? 來源:科皮子菊 ? 作者:菊子皮 ? 2020-11-27 10:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

好久不見各位親們,從上半年畢業(yè)到現(xiàn)在各方面開始步入正常軌跡,也開始有時間寫點文章了,后續(xù)開始陸續(xù)更新關于自然語言處理相關技術、論文等,感謝各位老鐵這么長時間的關注和支持,我會再接再厲認真寫文以饗讀者,也感謝各位提出的建議,共同交流,不吝賜教,fighting!

前言

眾所周知,卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network, CNN)通常是被用在圖像識別領域的,其實還可以應用于語音識別,文本分類等多個領域。寫這篇文章主要是為了介紹TextCnn文本分類模型,當然也會詳細介紹CNN的具體內(nèi)容,并輔以相關的案例。當然,這里默認讀者對神經(jīng)網(wǎng)絡有一定的了解和認識,如果有疑問可留言,本文也不介紹太多關于數(shù)學的內(nèi)容,以便于讀者理解,如有需要后期更新相關數(shù)學推導。

1 卷積神經(jīng)網(wǎng)絡簡介

通常有:

數(shù)據(jù)輸入層/ Input layer

卷積計算層/ CONV layer

池化層 / Pooling layer

全連接層 / FullConnect layer

輸出層 / Output layer

當然也還包括神經(jīng)網(wǎng)絡常用的激活層,正則化層等。

模型訓練完畢后,對圖像分類的主要過程如下:

CNN處理流程

當然,我們的主要工作還是構建CNN模型以及使用相關數(shù)據(jù)進行模型訓練,以使得模型能夠提取數(shù)據(jù)特征進行更好的分類。下面就對各個層以及神經(jīng)網(wǎng)絡的核心模塊進行介紹。

2 卷積層

卷積層是卷積神經(jīng)網(wǎng)絡的核心層,核心的處理方式就是卷積(Convolution)計算。卷積其實也就可以看成一個函數(shù)或者一種算法。這個函數(shù)則需要輸入數(shù)據(jù)和卷積核,按照卷積要求進行計算。我們可以通過下面的圖形簡單理解一下,假設我們有一個5x5的矩陣和一個3x3的卷積核(進行卷積計算所需要的兩個參數(shù)),如下:

輸入矩陣和卷積核

卷積核就是從輸入矩陣從左到右,從上到下進行計算,計算過程如下:

卷積計算過程

輸入矩陣對應的虛線框體大小就是卷積核形狀的大小,然后虛線框?qū)嘏c卷積核中的對應元素相乘求和就得出結果4。然后虛線框向右移一個單位(后面還會用到)計算第二個值,然后再移動一個單位計算第三個值,那么第一行就計算完畢了。需要注意的是,虛線框的大小要與卷積核形狀大小保持一致。同理可計算第二行,如下:

卷積計算過程2

一次類推計算出所有結果。經(jīng)過卷積計算的結果就是一個3x3的矩陣。總結一句話就是移動窗口,對應值計算相加即可。

可以看出,卷積層其實是提取圖像特征的過程。另外深思一下:擺在我們面前的問題有:卷積核如何確定?卷積核為啥只移動一個單位?移動過程超出邊界不可以嗎?

2.1 卷積核

卷積核在圖像識別中也稱過濾器。比較簡單的過濾器有:Horizontalfilter、Verticalfilter、Sobel Filter等。這些過濾器能夠檢測圖像的水平邊緣、垂直邊緣、增強圖像區(qū)域權重等,這里不做細致探究。其實,過濾器的作用類似于標準(例如全連接層)的權重矩陣W,需要通過梯度下降算法反復迭代求得。而卷積神經(jīng)網(wǎng)絡的主要目的就是計算出這些卷積核。

2.2 步幅

在前面的計算中可以看出,通過向右,向下移動一個單位的卷積核大小的窗口計算得到卷積結果。其實這個卷積核大小的窗口向右,向下移動的格數(shù)(單位)成為步幅(strides),上面每次移動一格,那么對應的strides就為1。在圖像處理中就是跳過像素的個數(shù)了。這個步幅也不是固定不變就是1,可結合實際場景改變。并且在移動的過程中,卷積核中的值不變是共享的。這也就大大降低了參數(shù)的數(shù)量。

2.3 填充

從上面的計算結果可以看出,輸入是一個5x5的矩陣,經(jīng)過卷積核計算后,輸出就變成了3x3的結果。如果你想再次輸入大小為5x5的矩陣怎么辦?這時我們就需要對原始輸入的5x5大小的矩陣做一下處理——填充(padding),在擴展區(qū)域補0。根據(jù)之前計算過程,只要向右向下各多移動兩次即可得到5x5的計算結果,那么對輸入矩陣補齊得到如下結果:

填充

現(xiàn)在結合輸入矩陣大小n、卷積核大小f、padding(補0圈數(shù))計算輸出矩陣大小p、步幅大小為s,公式如下:

當然這里默認輸入的數(shù)據(jù)長寬一致,如果長寬不同,則需根據(jù)具體情況具體分析。

拓展:實際中的圖片是三通道的,即:RGB通道,而對于視頻又會多個幀數(shù)通道。其實多通道時,每個通道對應一個卷積核即可。

2.4 激活函數(shù)

為了保證對數(shù)據(jù)非線性處理,也需要激活函數(shù),也就是激活層的處理。其處理方式是,為卷積核的每個元素添加一個bias(偏移值),然后送入諸如relu、leakyRelu、tanh等非線性激活函數(shù)即可。

3 池化層

在經(jīng)過卷積層之后,其實就可以通過全連接層后接softmax進行分類輸出圖片類別了,但是這個時候,數(shù)據(jù)量依然是特別大的,也就面臨著巨大的計算量挑戰(zhàn)。池化(Pooling)又稱下采樣,可以進一步降低網(wǎng)絡訓練參數(shù)和模型過擬合的程度。

常用的池化處理有一下幾種:

最大池化(Max Pooling):選擇Pooling窗口中的最大值作為采樣值

均值池化(Mean Pooling):將Pooling窗口中的所有值加起來取平均,使用平均值作為采樣值

全局最大(或均值)池化:取整個特征圖的最大值或均值

假如我們有如下提取特征的結果值:

以及假定池化的窗口大小為2x2,步幅為1,那么幾種池化過程如下:

簡單池化

池化層在cnn中可用來較小尺寸,提高運算速度及減小噪聲影響,讓各特征更具健壯性。

4 全連接層和輸出層

這部分主要連接最后池化后的結果,將池化后的數(shù)據(jù)展平構成全連接層的輸入。然后就是根據(jù)類別數(shù)構建的一個分類層,也就是輸出層,對于分類任務輸出層則添加一個sigmoid層計算需要分類的圖片各個類別的概率。對于訓練任務,則使用損失函數(shù)開始反向傳播更新模型中的卷積核。

總結

卷積神經(jīng)網(wǎng)絡的大致流程如此,實際中則需要靈活多變。卷積神經(jīng)網(wǎng)絡發(fā)展非常迅速,相關技術比較成熟,應用也比較廣泛。比較有代表性性的模型有:

LeNet-5

AlexNet

VGG

GoogleNet

ResNet

膠囊網(wǎng)絡

對此感興趣的可以深入了解。下面一篇文章將結合Pytorch以及CIFAR-10數(shù)據(jù)集做一個利用卷積神經(jīng)網(wǎng)絡分類的任務,以夯實對卷積神經(jīng)網(wǎng)絡的理解以及Pytorch的熟練使用。

原文標題:【深度學習】卷積神經(jīng)網(wǎng)絡-CNN簡單理論介紹

文章出處:【微信公眾號:自然語言處理愛好者】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

責任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4840

    瀏覽量

    108132
  • 深度學習
    +關注

    關注

    73

    文章

    5603

    瀏覽量

    124605
  • cnn
    cnn
    +關注

    關注

    3

    文章

    356

    瀏覽量

    23524

原文標題:【深度學習】卷積神經(jīng)網(wǎng)絡-CNN簡單理論介紹

文章出處:【微信號:NLP_lover,微信公眾號:自然語言處理愛好者】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    FPGA實現(xiàn)CNN卷積層的高效窗口生成模塊設計與驗證

    卷積神經(jīng)網(wǎng)絡CNN)可以分為卷積層、池化層、激活層、全鏈接層結構,本篇要實現(xiàn)的,就是CNN卷積
    的頭像 發(fā)表于 04-15 10:35 ?99次閱讀
    FPGA實現(xiàn)<b class='flag-5'>CNN</b><b class='flag-5'>卷積</b>層的高效窗口生成模塊設計與驗證

    卷積神經(jīng)網(wǎng)絡如何讓自動駕駛識別障礙物?

    自動駕駛的發(fā)展過程中,感知系統(tǒng)一直承擔車輛“眼睛”的角色,其核心任務是讓計算機理解復雜多變的物理世界。卷積神經(jīng)網(wǎng)絡CNN)作為一種專門用于處理圖像和視頻等網(wǎng)格狀數(shù)據(jù)結構的深度學習模型,已經(jīng)成為自動駕駛感知的基石。
    的頭像 發(fā)表于 04-11 09:59 ?1387次閱讀
    <b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>如何讓自動駕駛識別障礙物?

    神經(jīng)網(wǎng)絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經(jīng)網(wǎng)絡的實現(xiàn)。什么是神經(jīng)網(wǎng)絡?神經(jīng)網(wǎng)絡的核心思想是模仿生物神經(jīng)系統(tǒng)的結構,特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?435次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的初步認識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡是個啥?

    在自動駕駛領域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡技術。卷積神經(jīng)網(wǎng)絡,簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學習模型。
    的頭像 發(fā)表于 11-19 18:15 ?2218次閱讀
    自動駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>是個啥?

    CNN卷積神經(jīng)網(wǎng)絡設計原理及在MCU200T上仿真測試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網(wǎng)絡粗略分共有7層,細分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹
    發(fā)表于 10-29 07:49

    NMSISI庫的使用

    (q7_t) 和 16 位整數(shù) (q15_t)。 卷積神經(jīng)網(wǎng)絡示例: 本示例中使用的 CNN 基于來自 Caffe 的 CIFAR-10 示例。神經(jīng)網(wǎng)絡由 3 個
    發(fā)表于 10-29 07:07

    NMSIS神經(jīng)網(wǎng)絡庫使用介紹

    (q7_t) 和 16 位整數(shù) (q15_t)。 卷積神經(jīng)網(wǎng)絡示例: 本示例中使用的 CNN 基于來自 Caffe 的 CIFAR-10 示例。神經(jīng)網(wǎng)絡由 3 個
    發(fā)表于 10-29 06:08

    構建CNN網(wǎng)絡模型并優(yōu)化的一般化建議

    整個模型非常巨大。所以要想實現(xiàn)輕量級的CNN神經(jīng)網(wǎng)絡模型,首先應該避免嘗試單層神經(jīng)網(wǎng)絡。 2)減少卷積核的大小:CNN
    發(fā)表于 10-28 08:02

    卷積運算分析

    的數(shù)據(jù),故設計了ConvUnit模塊實現(xiàn)單個感受域規(guī)模的卷積運算. 卷積運算:不同于數(shù)學當中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡中的
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓練一個卷積神經(jīng)網(wǎng)絡CNN)模型,用于手寫數(shù)字識別。一旦模型被訓練并保存,就可以用于對新圖像進行推理和預測。要使用生成的模型進行推理,可以按照以下步驟進行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡部署相關操作

    讀取。接下來需要使用擴展指令,完成神經(jīng)網(wǎng)絡的部署,此處僅對第一層卷積+池化的部署進行說明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權重數(shù)據(jù)、輸入數(shù)據(jù)導入硬件加速器內(nèi)。對于權重
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(LNN):時間連續(xù)性與動態(tài)適應性的神經(jīng)網(wǎng)絡

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡架構,其設計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結構,盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1511次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    卷積神經(jīng)網(wǎng)絡如何監(jiān)測皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    MAX78000采用超低功耗卷積神經(jīng)網(wǎng)絡加速度計的人工智能微控制器技術手冊

    的Maxim超低功耗微控制器相結合。通過這款基于硬件的卷積神經(jīng)網(wǎng)絡(CNN)加速器,即使是電池供電的應用也可執(zhí)行AI推理,同時功耗僅為微焦耳級。
    的頭像 發(fā)表于 05-08 11:42 ?1116次閱讀
    MAX78000采用超低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>加速度計的人工智能微控制器技術手冊

    MAX78002帶有低功耗卷積神經(jīng)網(wǎng)絡加速器的人工智能微控制器技術手冊

    的Maxim超低功耗微控制器相結合。通過這款基于硬件的卷積神經(jīng)網(wǎng)絡(CNN)加速器,即使是電池供電的應用也可執(zhí)行AI推理,同時功耗僅為微焦耳級。
    的頭像 發(fā)表于 05-08 10:16 ?1002次閱讀
    MAX78002帶有低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>加速器的人工智能微控制器技術手冊
    永修县| 旌德县| 汝州市| 洛宁县| 鹰潭市| 黎城县| 红河县| 高州市| 高淳县| 罗城| 南部县| 鄢陵县| 东乌珠穆沁旗| 永福县| 鄂托克前旗| 井陉县| 青神县| 呼伦贝尔市| 沾益县| 金寨县| 独山县| 洞头县| 喜德县| 包头市| 常德市| 同仁县| 中江县| 秀山| 崇阳县| 宝鸡市| 七台河市| 西吉县| 镇赉县| 夏津县| 剑阁县| 乌什县| 静安区| 封丘县| 阳西县| 易门县| 阳高县|