哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用光速實現(xiàn)深度學(xué)習(xí),探討光學(xué)神經(jīng)網(wǎng)絡(luò)的應(yīng)用

DPVg_AI_era ? 來源:未知 ? 作者:胡薇 ? 2018-09-09 10:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

UCLA研究人員利用3D打印打造“全光學(xué)深度衍射神經(jīng)網(wǎng)絡(luò)”,利用光的衍射路徑識別目標(biāo),可實現(xiàn)實時的目標(biāo)識別和分類任務(wù),而且準(zhǔn)確率相當(dāng)高,網(wǎng)絡(luò)構(gòu)建成本不足50美元。

如果說GPU養(yǎng)大了深度學(xué)習(xí),那么如今深度學(xué)習(xí)的胃口早已經(jīng)超越了GPU。

當(dāng)然,GPU在不斷發(fā)展,也出現(xiàn)了TPU、IPU、MLU來滿足這頭巨獸。

深度學(xué)習(xí)對算力的需求沒有止境,但受制于能耗和物理極限,基于硅基的電子元件雖然現(xiàn)在還能支撐,但遠(yuǎn)處那堵幾乎不可逾越的高墻已然顯現(xiàn)。

怎么辦?

光速深度學(xué)習(xí)!

今天,Science發(fā)表了加州大學(xué)洛杉磯分校(UCLA)研究人員的最新研究:All-optical machine learning using diffractive deep neural networks,他們使用 3D 打印打造了一套 “全光學(xué)” 人工神經(jīng)網(wǎng)絡(luò),可以分析大量數(shù)據(jù)并以光速識別目標(biāo)。

論文地址:http://science.sciencemag.org/content/361/6406/1004

這項技術(shù)名為衍射深度神經(jīng)網(wǎng)絡(luò)(diffractive deep neural network,D2NN),它使用來自物體的光散射來識別目標(biāo)。該技術(shù)基于深度學(xué)習(xí)的被動衍射層設(shè)計。

研究團(tuán)隊先用計算機(jī)進(jìn)行模擬,然后用 3D 打印機(jī)打造出 8 平方厘米的聚合物層。每個晶圓表面都是不平整的,目的是為了衍射來自目標(biāo)的光線。

衍射深度神經(jīng)網(wǎng)絡(luò)由一系列聚合物層組成,每層大約 8 平方厘米。利用網(wǎng)絡(luò)區(qū)域內(nèi)的光的衍射傳播路徑來識別目標(biāo)。

研究人員使用 THz 級頻率的光穿透 3D 打印的網(wǎng)絡(luò)層。每一層網(wǎng)絡(luò)由數(shù)萬個像素組成,光可以通過這些像素傳播。

研究人員為每類的目標(biāo)分配像素,來自目標(biāo)的光被衍射到已分配給該目標(biāo)類型的像素上。這樣,衍射深度神經(jīng)網(wǎng)絡(luò)就能夠識別目標(biāo),其耗時與計算機(jī) “看到” 目標(biāo)所花費(fèi)的時間相仿。

的。

D2NN: 光速實時學(xué)習(xí),成本不到 50 美元

而隨著來自不同目標(biāo)的光通過 D2NN, 研究人員利用深度學(xué)習(xí)訓(xùn)練神經(jīng)網(wǎng)絡(luò),以學(xué)習(xí)每個目標(biāo)產(chǎn)生的衍射光圖案。

“我們使用逐層制造的無源元件,并通過光的衍射將這些層相互連接起來,打造一個獨(dú)特的全光平臺,可以以光速執(zhí)行機(jī)器學(xué)習(xí)任務(wù)?!?該研究團(tuán)隊負(fù)責(zé)人,加州大學(xué)洛杉磯分校教授 Aydogan Ozcan 表示。

“這就像一個由玻璃和鏡子構(gòu)成的復(fù)雜迷宮。光進(jìn)入衍射網(wǎng)絡(luò),并在迷宮周圍反射,直到其離開該區(qū)域為止。系統(tǒng)能夠根據(jù)某目標(biāo)產(chǎn)生的大部分光最終離開迷宮的路徑,確定究竟是哪個目標(biāo)?!監(jiān)zcan 說。

在實驗中,研究人員將圖像放在 THz 級頻率的光源前。 D2NN 通過光學(xué)衍射對圖像進(jìn)行觀察。研究人員發(fā)現(xiàn),該設(shè)備可以準(zhǔn)確識別手寫的數(shù)字和衣服,這兩類對象都是人工智能研究中的常用目標(biāo)。

圖為 D2NN 設(shè)備識別文本

在訓(xùn)練中,研究人員還該將設(shè)備作為成像的鏡頭,就像一般的相機(jī)鏡頭一樣。

由于 D2NN 的組成可以由 3D 打印制造,成本低廉,可以構(gòu)建規(guī)模更大、數(shù)量更多的層,制造出包含數(shù)億個人工神經(jīng)元(像素)的設(shè)備。規(guī)模較大的設(shè)備可以同時識別更多的目標(biāo),執(zhí)行更復(fù)雜的數(shù)據(jù)分析。

D2NN 的組件成本低廉。研究人員表示,他們使用的 D2NN 設(shè)備成本不到 50 美元。

雖然這項研究使用的是 Thz 級光譜中的光,但 Ozcan 表示,也可以打造使用可見光、紅外線或其他頻率光譜的神經(jīng)網(wǎng)絡(luò)。他表示,除 3D 打印外,D2NN 也可以使用光刻或其他印刷技術(shù)打造。

全光學(xué)衍射深度神經(jīng)網(wǎng)絡(luò)(D2NN)的 3D 打印衍射板

D2NN的設(shè)計和性能:MNIST分類準(zhǔn)確率達(dá)到91.75%

在論文中,研究人員介紹了D2NN框架的技術(shù)細(xì)節(jié)、實驗和測試性能。

在D2NN全光學(xué)深度學(xué)習(xí)框架中,神經(jīng)網(wǎng)絡(luò)物理上由多層衍射表面(diffractive surfaces)形成,這些衍射表面協(xié)同工作以光學(xué)地執(zhí)行網(wǎng)絡(luò)可以統(tǒng)計學(xué)習(xí)的任意功能。雖然這個物理網(wǎng)絡(luò)的推理和預(yù)測機(jī)制都是光學(xué)的,但其學(xué)習(xí)部分是通過計算機(jī)完成的。

研究者將這個框架稱為衍射深度神經(jīng)網(wǎng)絡(luò)( diffractive deep neural network,D2NN),并通過模擬和實驗證明了其推理能力。D2NN可以通過使用幾個透射和/或反射層進(jìn)行物理創(chuàng)建,其中給定層上的每個點(diǎn)都傳輸或反射進(jìn)來的光波,每個點(diǎn)代表一個人工神經(jīng)元,通過光學(xué)衍射連接到后續(xù)的層。如圖1A所示。

圖1:衍射深度神經(jīng)網(wǎng)絡(luò)D2NN

D2NN 中的人工神經(jīng)元通過由通過振幅和相位調(diào)制的次級波連接到下一層的其他神經(jīng)元。圖1D是標(biāo)準(zhǔn)深度神經(jīng)網(wǎng)絡(luò)的一個類比,可以將每個點(diǎn)或神經(jīng)元的傳輸或反射系數(shù)視為一個“bias”項,這是一個可學(xué)習(xí)的網(wǎng)絡(luò)參數(shù),在訓(xùn)練過程中使用誤差反向傳播方法進(jìn)行迭代調(diào)整。

經(jīng)過這一數(shù)值訓(xùn)練階段, D2NN的設(shè)計就固定了,并且確定了各層神經(jīng)元的傳輸或反射系數(shù)。這種 D2NN設(shè)計可以以光速執(zhí)行所訓(xùn)練的特定任務(wù),僅使用光學(xué)衍射和無源光學(xué)器件(passive optical components)或無需功率的層,從而創(chuàng)建一種高效、快速的方式來實現(xiàn)機(jī)器學(xué)習(xí)任務(wù)。

一般來說,每個神經(jīng)元的相位和振幅可以是可學(xué)習(xí)的參數(shù),在每一層提供復(fù)值調(diào)制(complex-valued modulation),這改善了衍射網(wǎng)絡(luò)的推理性能。 對于phase-only調(diào)制的同調(diào)傳輸網(wǎng)絡(luò),每層可以近似為一個薄的光學(xué)元件(圖1)。通過深度學(xué)習(xí),在輸入層饋送訓(xùn)練數(shù)據(jù)并通過光學(xué)衍射計算網(wǎng)絡(luò)輸出,每一層的神經(jīng)元的phase value迭代調(diào)整(訓(xùn)練)來執(zhí)行一個特定的函數(shù)。

在計算目標(biāo)輸出誤差的基礎(chǔ)上,通過誤差反向傳播算法優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)及其神經(jīng)元相位值。誤差反向傳播算法基于傳統(tǒng)深度學(xué)習(xí)中的隨機(jī)梯度下降法。

D2NN性能:MNIST手寫數(shù)字?jǐn)?shù)據(jù)集

為了演示 D2NN框架的性能,我們首先將其訓(xùn)練成一個數(shù)字分類器,對從0到9的手寫數(shù)字進(jìn)行自動分類(圖1B)。

為了完成這項任務(wù),我們設(shè)計了一個五層的D2NN,其中包含來自MNIST手寫數(shù)字?jǐn)?shù)據(jù)集的5.5萬張圖像(5000張驗證圖像)。我們將輸入數(shù)字編碼到D2NN輸入域的幅值中,訓(xùn)練衍射網(wǎng)絡(luò)將輸入數(shù)字映射到10個檢測器區(qū)域,每個檢測器區(qū)域?qū)?yīng)一個數(shù)字。分類標(biāo)準(zhǔn)是尋找具有最大光信號的檢測器,相當(dāng)于網(wǎng)絡(luò)訓(xùn)練過程中的損失函數(shù)。

在訓(xùn)練之后,使用來自MNIST測試數(shù)據(jù)集的10000個圖像(未用作訓(xùn)練或驗證圖像集)對D2NN數(shù)字分類器進(jìn)行數(shù)值測試,并且實現(xiàn)了91.75%的分類精度(圖3C)。

根據(jù)這些數(shù)值結(jié)果,我們將這個5層的D2NN 設(shè)計3D打印出來(下圖),每一層的面積為8cm×8cm,然后在衍射網(wǎng)絡(luò)的輸出平面定義10個檢測器區(qū)域(圖1B)。

圖2:3D打印的D2NN的實驗測試

然后,我們使用0.4 THz的連續(xù)波光照來測試網(wǎng)絡(luò)的推理性能(圖2,C和D)。

每一層神經(jīng)元的相位值用3D打印神經(jīng)元的相對厚度進(jìn)行物理編碼。對這個5層的D2NN設(shè)計的數(shù)值測試顯示,在 ~10000幅測試圖像中,分類準(zhǔn)確率達(dá)到91.75%(圖3C)。

圖3: D2NN手寫數(shù)字識別器的性能

D2NN性能:Fashion-MNIST數(shù)據(jù)集

接下來,為了測試D2NN框架的分類性能,研究者使用了一個更復(fù)雜的圖像數(shù)據(jù)集——Fashion-MNIST數(shù)據(jù)集,其中包含10個類別的時尚產(chǎn)品。

D2NN對Fashion-MNIST數(shù)據(jù)集的分類結(jié)果如下圖所示。具有N = 5個衍射層的phase-only和complex valued的D2NN的分類精度分別達(dá)到81.13%和86.33%。

通過將衍射層的數(shù)量增加到N = 10,并將神經(jīng)元的總數(shù)增加到40萬,D2NN的分類精度提高到86.60%。對比而言,在已有研究中,基于卷積神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)深度學(xué)習(xí),使用~890萬可學(xué)習(xí)參數(shù)和~250萬個神經(jīng)元,F(xiàn)ashion-MNIST分類準(zhǔn)確度的最高性能為96.7%。

光學(xué)神經(jīng)網(wǎng)絡(luò)的應(yīng)用

光學(xué)電路深度學(xué)習(xí)是一項重大突破,而且其現(xiàn)實應(yīng)用已經(jīng)逐漸

根據(jù)光學(xué)領(lǐng)域權(quán)威期刊Optica的報道,美國斯坦福大學(xué)的研究人員已經(jīng)證明,可以直接在光學(xué)芯片上訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)。這一重大突破表明,光學(xué)電路可以實現(xiàn)基于電子的人工神經(jīng)網(wǎng)絡(luò)的關(guān)鍵功能,從而可以以更便宜、更快速和更節(jié)能的方式執(zhí)行語音識別、圖像識別等復(fù)雜任務(wù)。

不僅如此,斯坦福的另一組研究人員還研究出一套小型AI成像系統(tǒng),采用雙層光學(xué)-電子混合計算技術(shù),成像精度和速度均達(dá)到電子計算處理器水平。具體說,研究人員在電子計算之前加上一層光學(xué)計算,這種AI成像系統(tǒng)在低光照條件下具備更強(qiáng)的成像能力,每個立體像素上的光電子密度最高可達(dá)幾十個,同時節(jié)約了大量本該用于計算的時間和成本。

具體到這項研究,UCLA的研究團(tuán)隊表示,他們的 D2NN 設(shè)備可用于全光學(xué)圖像分析、特征檢測和對象分類任務(wù),還可以實現(xiàn)使用 D2NN 執(zhí)行任務(wù)的新相機(jī)設(shè)計和光學(xué)組件。

例如,使用該技術(shù)的無人駕駛汽車可以立即對停車標(biāo)志作出反應(yīng),一旦收到從標(biāo)志衍射來的光,D2NN 就可以讀取標(biāo)志信息。該技術(shù)還可用于對大量目標(biāo)的分類任務(wù),比如在數(shù)百萬細(xì)胞樣本中尋找疾病的跡象。

“這項研究為基于人工智能的被動設(shè)備提供了新機(jī)會,可以對數(shù)據(jù)和圖像進(jìn)行實時分析,并對目標(biāo)進(jìn)行分類。”O(jiān)zcan 說。“這種光學(xué)人工神經(jīng)網(wǎng)絡(luò)設(shè)備直觀地模擬了大腦處理信息的方式,具備很高的可擴(kuò)展性,可以應(yīng)用到新的相機(jī)設(shè)計和獨(dú)特的光學(xué)組件設(shè)計中,也可用于醫(yī)療技術(shù)、機(jī)器人、安全等領(lǐng)域?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:Science重磅!用光速實現(xiàn)深度學(xué)習(xí),跟GPU說再見

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    面向嵌入式部署的神經(jīng)網(wǎng)絡(luò)優(yōu)化:模型壓縮深度解析

    1.為什么需要神經(jīng)網(wǎng)絡(luò)模型壓縮? 神經(jīng)網(wǎng)絡(luò)已經(jīng)成為解決復(fù)雜機(jī)器學(xué)習(xí)問題的強(qiáng)大工具。然而,這種能力往往伴隨著模型規(guī)模和計算復(fù)雜度的增加。當(dāng)輸入維度較大(例如長時序窗口、高分辨率特征空間)時,模型需要
    的頭像 發(fā)表于 02-24 15:37 ?5450次閱讀
    面向嵌入式部署的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>優(yōu)化:模型壓縮<b class='flag-5'>深度</b>解析

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)實現(xiàn)。什么是
    的頭像 發(fā)表于 12-17 15:05 ?460次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?2246次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個手寫數(shù)字識別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重數(shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1562次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經(jīng)形態(tài)計算、類腦芯片

    AI芯片不僅包括深度學(xué)細(xì)AI加速器,還有另外一個主要列別:類腦芯片。類腦芯片是模擬人腦神經(jīng)網(wǎng)絡(luò)架構(gòu)的芯片。它結(jié)合微電子技術(shù)和新型神經(jīng)形態(tài)器件,模仿人腦神經(jīng)系統(tǒng)機(jī)選原理進(jìn)行設(shè)計,
    發(fā)表于 09-17 16:43

    神經(jīng)網(wǎng)絡(luò)的并行計算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓(xùn)練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1296次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計算與加速技術(shù)

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    上來先來幾個專有名詞: ANN:人工神經(jīng)網(wǎng)絡(luò) SNN:脈沖神經(jīng)網(wǎng)絡(luò)DNN:深度神經(jīng)網(wǎng)絡(luò) 神經(jīng)網(wǎng)絡(luò)設(shè)計靈感都是來自人類的大腦結(jié)構(gòu),都是由
    發(fā)表于 09-12 17:30

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進(jìn)行標(biāo)識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 09-10 17:38 ?1049次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)實現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對電機(jī)
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機(jī)參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點(diǎn),使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1503次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析
    黄山市| 通榆县| 偃师市| 平南县| 丹棱县| 五指山市| 蓝田县| 贡嘎县| 营山县| 北海市| 偃师市| 嘉定区| 香港 | 镇巴县| 清原| 宁南县| 平舆县| 聊城市| 涿州市| 兴海县| 孟州市| 永吉县| 麻江县| 招远市| 黄大仙区| 德格县| 锦州市| 塔城市| 洛宁县| 任丘市| 衡阳市| 隆德县| 六安市| 宝兴县| 鹤岗市| 佛冈县| 根河市| 诸城市| 通江县| 唐山市| 定南县|