哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學習模型在傳感器數(shù)據(jù)處理中的應(yīng)用(二):LSTM

MATLAB ? 來源:MATLAB ? 2025-02-20 10:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)是遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的一個變種,專門設(shè)計用來解決標準 RNN 在處理長序列數(shù)據(jù)時遇到的梯度消失或梯度爆炸問題。標準 RNN 在反向傳播過程中,由于鏈式法則的應(yīng)用,梯度可能會在多層傳播中指數(shù)級地減?。ㄌ荻认В┗蛟龃螅ㄌ荻缺ǎ?,這使得網(wǎng)絡(luò)難以學習和記住長時間步的依賴關(guān)系。

1.遞歸神經(jīng)網(wǎng)絡(luò)(RNN)

RNN 的核心是其循環(huán)結(jié)構(gòu)。在每個時間步,RNN 不僅接收當前輸入數(shù)據(jù),還接收前一時間步的隱藏狀態(tài),正是隱藏狀態(tài)的設(shè)計,使得網(wǎng)絡(luò)能夠記住和利用之前的信息。

e896fa42-eea9-11ef-9310-92fbcf53809c.png

圖 1 RNN 單元結(jié)構(gòu)

圖1顯示了標準 RNN 的單元結(jié)構(gòu),其中輸入向量xt,輸出向量ot,隱藏狀態(tài)向量ht-1。當前隱藏狀態(tài)向量ht的計算如下,其輸入當前時間步向量xt和前一時間段步的隱藏狀態(tài)向量ht-1:

e89f0246-eea9-11ef-9310-92fbcf53809c.png

其中 σ 表示激活函數(shù),Wh 和 Wx 是隱藏狀態(tài)變換參數(shù)和輸入變換參數(shù),隱藏狀態(tài)負責記憶之前時間步上的信息。RNN 的輸出向量ot是對隱藏狀態(tài)做線性變換:

e8b103e2-eea9-11ef-9310-92fbcf53809c.png 其中 σ 表示激活函數(shù),Wo?輸出變換。Wh 、Wx 和 Wo 是 RNN 要學習的參數(shù)。標準的 RNN 結(jié)構(gòu)存在兩個主要問題:梯度消失(或增大);長期信息丟失。

梯度消失(或增大)在長時間序列中,梯度是消失還是增大,與選擇的激活函數(shù)有關(guān),這里我們解釋梯度消失問題。假設(shè)損失函數(shù)為 L,在反向傳播過程中,針對參數(shù) Wh的梯度計算為:

e8c27ffa-eea9-11ef-9310-92fbcf53809c.png

而?h1/?wh是通過激活函數(shù)做梯度計算,激活函數(shù)的取值范圍是[-1,1](tanh函數(shù))或[0,1](sigmod函數(shù)),因此,連續(xù)相乘會產(chǎn)生梯度消失,

長期信息丟失對當前隱藏狀態(tài)向量產(chǎn)生影響的是當前時間步的輸入向量和前一個時間步的隱藏狀態(tài)向量。當前輸入數(shù)據(jù)往往是會攜帶大量信息,而隱藏狀態(tài)變量是遞歸生成的,隨著遞歸次數(shù)的增加其變化量也會較少,因此 Wx × xt 的值會大于 Wh × ht-1。

2.長短期記憶(LSTM)

LSTM 是一種新的 RNN 結(jié)構(gòu),能夠有效地保留長期信息并緩解梯度消失問題。LSTM 引入了一個記憶單元(也是單元狀態(tài)向量),用于存儲長期信息。記憶單元通過直接的線性連接在時間步之間傳遞信息,避免了梯度消失問題。LSTM 通過三個門(遺忘門、輸入門和輸出門)來控制信息在時間步間的流動量。

遺忘門: 決定記憶單元中哪些信息需要丟棄。

輸入門: 決定哪些新的信息會被加入記憶單元。

輸出門: 控制記憶單元的輸出部分如何影響最終的輸出。

LSTM 的單元結(jié)構(gòu)如圖2所示。其中,f、i、o分別是遺忘門、輸入門和輸出門,g表示候選進入單元狀態(tài)的信息;σg 和σc表示激活函數(shù),e8cf5fa4-eea9-11ef-9310-92fbcf53809c.png?表示向量對應(yīng)元素相乘。

e8d6a7be-eea9-11ef-9310-92fbcf53809c.png

圖 2 LSTM 單元結(jié)構(gòu) 每個門對輸入數(shù)據(jù)和前一時刻的隱藏狀態(tài)向量的轉(zhuǎn)換過程可以表示為:

遺忘門:

e8ecb1c6-eea9-11ef-9310-92fbcf53809c.png

輸入門:

e8ff8594-eea9-11ef-9310-92fbcf53809c.png

輸出門:

e90bb6de-eea9-11ef-9310-92fbcf53809c.png

候選狀態(tài)單元:

e912d8ce-eea9-11ef-9310-92fbcf53809c.png

進一步,單元狀態(tài)(cellstate)表示為:

e9235578-eea9-11ef-9310-92fbcf53809c.png

隱藏狀態(tài)(hidden state)表示為:

e9345fd0-eea9-11ef-9310-92fbcf53809c.png

一般情況下,激活函數(shù)σg 和σc分別采用tanh函數(shù)和sigmod函數(shù)。正如公式(5)所示,t時刻的單元狀態(tài)ct,是對前一時刻的單元狀態(tài)做部分遺忘,遺忘的比例由遺忘門ft 決定;并增加部分輸入數(shù)據(jù),增加的比例由輸入門決定it。而公式(6)表明,每個時間步的隱藏狀態(tài)是部分單元狀態(tài),比例部分由輸出門ot 決定。

正是由于單元狀態(tài)的引入,可以通過一條直接的路徑記住每個時間步的輸入數(shù)據(jù),也就是長期依賴關(guān)系;而輸入數(shù)據(jù)通過加法(類似于殘差)引入單元狀態(tài)中,使得反向傳播過程的梯度消失得到緩解。 ▼

3.MATLAB 對 LSTM的支持

在 MATLAB 中,lstmLayer 層實現(xiàn)了 LSTM,其提供了多個屬性用于設(shè)置和初始化 LSTM 的相關(guān)參數(shù)。

e9415596-eea9-11ef-9310-92fbcf53809c.png

MATLAB 中的 lstmLayer 及其屬性

例如NumHiddenUnits用于設(shè)置隱藏狀態(tài)向量的維度,隱藏狀態(tài)包含來自所有先前時間步的信息,其大小也決定了 LSTM 要學習的參數(shù)的規(guī)模;stateActivateFunction設(shè)置單元狀態(tài)和隱藏狀態(tài)的激活函數(shù);gateActivateFunction用于設(shè)置門操作的激活函數(shù);還有一個很重要的屬性outputMode,其有兩個值:sequence和last。LSTM 單元按時間步順序處理輸入數(shù)據(jù),輸出是當前時間步的隱藏狀態(tài),如圖 3 所示。如果outputMode的屬性值為 sequence,每個時間步的隱藏狀態(tài)向量都會輸出,最終 lstmLayer 輸出一個隱藏狀態(tài)序列,序列長度等于輸入序列的長度;如果outputMode的屬性值為 last,那么 lstmLayer 只輸出最后一個時間步的隱藏狀態(tài)向量。由于 LSTM 是對輸入序列遞歸處理,所以最后一個時間的輸出隱藏狀態(tài)向量已經(jīng)包含其與之前所有時間步的依賴關(guān)系。

e94be542-eea9-11ef-9310-92fbcf53809c.png

圖3(a)LSTM單元的每個時間步的輸入數(shù)據(jù)和輸出數(shù)據(jù);

e95dd270-eea9-11ef-9310-92fbcf53809c.png

圖3(b) LSTM遞歸處理輸入序列,并生成相應(yīng)的輸出序列

MATLAB 還同時支持 BiLSTM(BiderectionalLong Short-Term Memory),也就是雙向 LSTM。BiLSTM 是對 LSTM 的擴展,通過引入雙向信息流來增強模型的上下文捕獲能力。在 BiLSTM 中,輸入序列不僅從前向后處理(正向 LSTM),還從后向前處理(反向 LSTM)。這種雙向處理方式允許模型在每個時間步上同時考慮前后文信息,從而提高預測的準確性。

類似于 lstmLayer,MATLAB 中的 bilstmLayer 實現(xiàn)了 BiLSTM。屬性NumHiddenUnits用于設(shè)置隱藏狀態(tài)向量的維度,其包含先前時間步和后續(xù)時間步的信息,而實際輸出的隱藏狀態(tài)向量維度為 2*NumHiddenUnits,即將前向和后向兩個處理過程的隱藏狀態(tài)進行連接。 ▼

4.LSTM 在基于信號數(shù)據(jù)的故障診斷中的應(yīng)用

基于 LSTM,可以構(gòu)建分類網(wǎng)絡(luò)對設(shè)備或器件做故障診斷。LSTM 可以捕獲傳感器數(shù)據(jù)在時間上的依賴關(guān)系,進而可以識別設(shè)備的動態(tài)特性實現(xiàn)診斷或預測。使用 Deep Network Designer App 構(gòu)建分類網(wǎng)絡(luò),如圖 4 所示。

e97003a0-eea9-11ef-9310-92fbcf53809c.png

圖4 LSTM分類網(wǎng)絡(luò)

lstmLayer 的隱藏單元向量維度設(shè)置為 128,outputMode設(shè)置為sequence,因此,lstmLayer 層的輸出是一個隱藏狀態(tài)向量序列,并且序列中的每個向量的維度為 128。在 lstmLayer 之后使用 globalMaxPooling1dLayer 層對輸出結(jié)果在時間方向上做最大值池化(這類似在傳感器數(shù)據(jù)的深度學習模型應(yīng)用(一) – Transformer中使用的方法),進而其輸出結(jié)果為一個128維的向量,最后我們使用兩個全連接層做線性變化,最終輸出為 3 維的向量對應(yīng)于故障種類。

使用在傳感器數(shù)據(jù)的深度學習模型應(yīng)用(一) – Transformer提到的數(shù)據(jù)集,該數(shù)據(jù)集是對原始信號數(shù)據(jù)做了時域、頻域、以及時頻域的特征提取,進而將具有 146484 采樣點一維數(shù)據(jù),轉(zhuǎn)換為 1464×30 的二維矩陣(因此,在 LSTM 分類網(wǎng)絡(luò)中輸入層的維度為 30)。數(shù)據(jù)集進步劃分為訓練集和測試集,如下所示:

e9835f90-eea9-11ef-9310-92fbcf53809c.png

訓練集(上)

e98e4cde-eea9-11ef-9310-92fbcf53809c.png

測試集(下)

模型訓練過程,MATLAB 提供了超參數(shù)選項實現(xiàn)模型的進一步調(diào)優(yōu),而超參數(shù)選項是通過 trainingOptions 函數(shù)設(shè)置的,包括初始學習速率、學習速率衰減策略、minibatch 大小、訓練執(zhí)行環(huán)境(GPUCPU)、訓練周期等等。經(jīng)過 100 個 Epoch 訓練,模型在測試集上的測試結(jié)果如圖 5 所示:

e9a2f5f8-eea9-11ef-9310-92fbcf53809c.png

圖 5 模型訓練過程(上)

e9b7ae1c-eea9-11ef-9310-92fbcf53809c.png

圖 5測試集精度(heatmap)(下)

5. 總結(jié)

本文的目的主要是介紹 Long-shortterm memory(LSTM),以及 MATLAB 對 LSTM 支持和如何在 MATLAB 中構(gòu)建基于 LSTM 的分類網(wǎng)絡(luò)。當然基于 LSTM 還可以構(gòu)建回歸網(wǎng)絡(luò),實現(xiàn)序列到一個值和序列到序列的預測。本文目的是給讀者在序列數(shù)據(jù)分析提供一種思路,文中的模型設(shè)計和訓練還有可以優(yōu)化地方,僅為讀者提供參考,也歡迎大家做進一步模型結(jié)構(gòu)調(diào)整和精度提升。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2577

    文章

    55481

    瀏覽量

    793826
  • matlab
    +關(guān)注

    關(guān)注

    189

    文章

    3028

    瀏覽量

    239179
  • LSTM
    +關(guān)注

    關(guān)注

    0

    文章

    63

    瀏覽量

    4442

原文標題:傳感器數(shù)據(jù)的深度學習模型應(yīng)用(二)—— LSTM

文章出處:【微信號:MATLAB,微信公眾號:MATLAB】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    海綿泡沫緩沖能量沖擊試驗機傳感器安裝與信號調(diào)理電路的技術(shù)要點

    與適配,者協(xié)同為數(shù)據(jù)處理提供可靠信號源。 傳感器安裝技術(shù)要點 傳感器安裝需實現(xiàn)“精準感知、穩(wěn)定固定、干擾規(guī)避”。安裝位置應(yīng)貼合測試需求,將傳感器
    的頭像 發(fā)表于 02-11 09:28 ?486次閱讀
    海綿泡沫緩沖能量沖擊試驗機<b class='flag-5'>傳感器</b>安裝與信號調(diào)理電路的技術(shù)要點

    機器學習深度學習需避免的 7 個常見錯誤與局限性

    ,并驗證輸出結(jié)果,就能不斷提升專業(yè)技能,養(yǎng)成優(yōu)秀數(shù)據(jù)科學家的工作習慣。需避免的機器學習深度學習數(shù)據(jù)錯誤
    的頭像 發(fā)表于 01-07 15:37 ?345次閱讀
    機器<b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>中</b>需避免的 7 個常見錯誤與局限性

    SmartBug2.0 用戶指南:硬件連接、功能使用與數(shù)據(jù)處理全解析

    SmartBug2.0 用戶指南:硬件連接、功能使用與數(shù)據(jù)處理全解析 電子設(shè)備的開發(fā)與應(yīng)用,傳感器模塊的功能和使用方式至關(guān)重要。SmartBug2.0 作為一款功能強大的模塊,為我
    的頭像 發(fā)表于 12-26 09:15 ?531次閱讀

    MCU數(shù)據(jù)采集模塊的數(shù)據(jù)處理和分析能力如何?

    MCU數(shù)據(jù)采集模塊的數(shù)據(jù)處理和分析能力如何?現(xiàn)代化結(jié)構(gòu)物安全監(jiān)測領(lǐng)域,MCU數(shù)據(jù)采集模塊扮演著至關(guān)重要的角色。它不僅僅是數(shù)據(jù)的“搬運工”,
    的頭像 發(fā)表于 12-02 16:03 ?530次閱讀
    MCU<b class='flag-5'>數(shù)據(jù)</b>采集模塊的<b class='flag-5'>數(shù)據(jù)處理</b>和分析能力如何?

    傳感器關(guān)鍵參數(shù)解析:如何配置ODR與FSR提升模型性能

    傳感器應(yīng)用,有兩個至關(guān)重要的可配置參數(shù)直接影響著數(shù)據(jù)質(zhì)量和機器學習模型的表現(xiàn)——它們就是輸出
    的頭像 發(fā)表于 11-12 12:04 ?1176次閱讀
    <b class='flag-5'>傳感器</b>關(guān)鍵參數(shù)解析:如何配置ODR與FSR提升<b class='flag-5'>模型</b>性能

    安森美工業(yè)傳感器如何推動智能制造物理AI進步

    在上一部分,我們探討了工業(yè)傳感器如何作為智能制造物理 AI 系統(tǒng)的神經(jīng)系統(tǒng)發(fā)揮作用。它們可以為機器學習模型提供自主決策所需的
    的頭像 發(fā)表于 10-24 10:02 ?2075次閱讀
    安森美工業(yè)<b class='flag-5'>傳感器</b>如何推動智能制造<b class='flag-5'>中</b>物理AI進步

    傳感器如何實現(xiàn)數(shù)據(jù)采集聯(lián)網(wǎng)通信

    傳感器實現(xiàn)數(shù)據(jù)采集與聯(lián)網(wǎng)通信是一個涉及硬件設(shè)計、協(xié)議選擇、數(shù)據(jù)處理和云平臺集成的系統(tǒng)化過程。其核心目標是將傳感器采集的物理量(如溫度、濕度、壓力等)轉(zhuǎn)換為數(shù)字信號,并通過有線或無線方式
    的頭像 發(fā)表于 09-23 17:30 ?1371次閱讀

    海綿拉伸撕裂強度試驗機傳感器的電子信號處理技術(shù)

    海綿拉伸撕裂強度試驗機,傳感器電子信號處理技術(shù)至關(guān)重要。 海綿拉伸撕裂強度試驗機的檢測系統(tǒng)
    的頭像 發(fā)表于 09-05 09:40 ?693次閱讀

    霍爾傳感器智慧小區(qū)燃氣聯(lián)網(wǎng)監(jiān)測的應(yīng)用方案與解析

    燃氣表葉輪/渦輪結(jié)構(gòu),支持寬溫域(-40℃~+85℃)和抗應(yīng)力設(shè)計?。 ?多傳感器融合?:霍爾傳感器與溫度傳感器、壓力傳感器【 ?邊緣計算?:
    發(fā)表于 08-13 11:05

    自動駕駛Transformer大模型會取代深度學習嗎?

    持續(xù)討論。特別是自動駕駛領(lǐng)域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學習是否已過時”的激烈爭論。然而,從技術(shù)原理、算力成本、安全需求與
    的頭像 發(fā)表于 08-13 09:15 ?4362次閱讀
    自動駕駛<b class='flag-5'>中</b>Transformer大<b class='flag-5'>模型</b>會取代<b class='flag-5'>深度</b><b class='flag-5'>學習</b>嗎?

    超小型Neuton機器學習模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    可以廣泛的傳感器網(wǎng)絡(luò)的每個節(jié)點上進行人工智能處理,而在這種網(wǎng)絡(luò),傳感器的尺寸和成本是關(guān)鍵,空間也非常寶貴。
    發(fā)表于 07-31 11:38

    進制數(shù)據(jù)處理方法分享

    隨著不斷增長的測試需求、更加復雜的系統(tǒng)集成和更多的數(shù)據(jù)處理,程序控制示波器的應(yīng)用中越來越多。程序控制很重要的一部分就是如何把數(shù)據(jù)從示波
    的頭像 發(fā)表于 07-30 15:41 ?2580次閱讀
    <b class='flag-5'>二</b>進制<b class='flag-5'>數(shù)據(jù)處理</b>方法分享

    如何使用 CYW20829 將獲得的傳感器數(shù)據(jù)發(fā)送到廣播

    用 python 處理數(shù)據(jù)。 現(xiàn)時,我想問這計劃是否可行? 如果是,如何使用 CYW20829 將獲得的傳感器數(shù)據(jù)發(fā)送到廣播? 有參考范例
    發(fā)表于 07-02 07:16

    明治傳感器產(chǎn)品模型正式入駐Eplan平臺,助力高效工程設(shè)計!

    在數(shù)字化轉(zhuǎn)型浪潮,技術(shù)協(xié)同已成為行業(yè)創(chuàng)新的核心驅(qū)動力。明治傳感與全球領(lǐng)先的工程設(shè)計軟件“Eplan”達成深度合作!即日起,公司旗下多款產(chǎn)品模型正式上線Eplan
    的頭像 發(fā)表于 06-06 18:09 ?1317次閱讀
    明治<b class='flag-5'>傳感器</b>產(chǎn)品<b class='flag-5'>模型</b>正式入駐Eplan平臺,助力高效工程設(shè)計!

    無源傳感器維護成本低,但數(shù)據(jù)處理能力有限,如何權(quán)衡?

    電力巡檢,傳感器的選擇直接影響監(jiān)測的效率、成本和安全性。無源傳感器和有源傳感器各有優(yōu)缺點,如何在兩者之間做出合理選擇,是電力巡檢
    的頭像 發(fā)表于 05-19 17:02 ?1104次閱讀
    無源<b class='flag-5'>傳感器</b>維護成本低,但<b class='flag-5'>數(shù)據(jù)處理</b>能力有限,如何權(quán)衡?
    南和县| 东安县| 永年县| 遂川县| 新丰县| 澄江县| 武穴市| 黄山市| 高淳县| 化德县| 宜君县| 曲靖市| 舞阳县| 穆棱市| 时尚| 萨嘎县| 远安县| 汾阳市| 白朗县| 宁津县| 莫力| 嘉禾县| 大宁县| 遵义市| 缙云县| 炉霍县| 汤原县| 济源市| 汽车| 明光市| 泸西县| 和龙市| 仁布县| 清徐县| 广丰县| 米易县| 内丘县| 宜丰县| 涟源市| 当雄县| 兴海县|