哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Edge Impulse 喚醒詞模型訓(xùn)練 | 技術(shù)集結(jié)

jf_12300286 ? 2026-04-20 10:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今天,將手把手帶領(lǐng)學(xué)習(xí)如何訓(xùn)練一個(gè)語音關(guān)鍵詞模型部署到嵌入式硬件上,采用 Edgi-Talk 平臺(tái)適配 Edge Impulse,當(dāng)然原理在其他的ARM嵌入式平臺(tái)也是通用的。讓我們看看如何讓 Edgi-Talk 開始使用邊緣機(jī)器學(xué)習(xí)!

目錄

Edge Impulse 簡介


創(chuàng)建賬號(hào)


錄制數(shù)據(jù)集


數(shù)據(jù)上傳


數(shù)據(jù)分割


模型訓(xùn)練


模型評估


模型集成


淘寶鏈接直達(dá)

1Edge Impulse 簡介

Edge Impulse是領(lǐng)先的邊緣人工智能開發(fā)平臺(tái),致力于幫助開發(fā)者、工程師和企業(yè)將智能AI快速部署到任何邊緣設(shè)備(如微控制器、傳感器物聯(lián)網(wǎng)硬件)上。

你可以輕松采集傳感器數(shù)據(jù)、構(gòu)建數(shù)據(jù)集、訓(xùn)練并優(yōu)化機(jī)器學(xué)習(xí)模型,然后一鍵部署到全球數(shù)千種硬件生態(tài)系統(tǒng),無需深厚的AI專業(yè)知識(shí)即可實(shí)現(xiàn)快速原型開發(fā)和商業(yè)化落地。

2 創(chuàng)建賬號(hào)

操作步驟:

1. 登錄Edge Impulse,https://edgeimpulse.com/

2. 注冊賬號(hào);

3. 通過create new project創(chuàng)建工程

5b2a3b58-3c5d-11f1-ab55-92fbcf53809c.png

2 錄制數(shù)據(jù)集

1.給 Edgi-Talk 開發(fā)板燒錄 UAC 固件,用于收集音頻數(shù)據(jù):uac-firmware.hex;鏈接:https://github.com/RT-Thread-Studio/sdk-bsp-psoc_e84-edgi-talk/releases/download/1.1.0/uac-firmware.hex

2.下載音頻數(shù)據(jù)集錄制軟件:Audio-recording.exe;鏈接:https://github.com/RT-Thread-Studio/sdk-bsp-psoc_e84-edgi-talk/releases/download/1.1.0/audio-recording.exe

3.將開發(fā)板的 USB 連接到電腦上,電腦會(huì)彈出音頻輸入設(shè)備;

4.音頻輸入設(shè)備需要選擇:Audio Control(MME)設(shè)備;

5b37d22c-3c5d-11f1-ab55-92fbcf53809c.png

5.點(diǎn)擊開始錄制進(jìn)行一次長達(dá)10 秒的錄制,錄制期間需要保證清晰的對話,喚醒詞錄制需要間隔1-2s停頓時(shí)間;

6.錄制好一次后,點(diǎn)擊右側(cè)的“保存錄音”選擇,進(jìn)行一次保存;

7.當(dāng)前序號(hào)選項(xiàng)默認(rèn)會(huì)遞增,請重復(fù)上述步驟錄制 20-50 個(gè)關(guān)鍵詞音頻文件;

8.最終錄制兩類音頻文件,一類是喚醒詞,一類是噪音;

5b41f3c4-3c5d-11f1-ab55-92fbcf53809c.png5b4ccb8c-3c5d-11f1-ab55-92fbcf53809c.png5b5a46c2-3c5d-11f1-ab55-92fbcf53809c.png

3 數(shù)據(jù)上傳

1. 點(diǎn)擊add exsiting data

2. 選擇upload data

5b662f6e-3c5d-11f1-ab55-92fbcf53809c.png5b742fd8-3c5d-11f1-ab55-92fbcf53809c.png

3. 選擇電腦上的音頻文件夾并上傳,此時(shí)網(wǎng)站會(huì)根據(jù)文件名稱自動(dòng)進(jìn)行分類(nocie,喚醒詞)

5b8350f8-3c5d-11f1-ab55-92fbcf53809c.png

4 數(shù)據(jù)分割

操作步驟:

1. 首先選擇 Training 列表的數(shù)據(jù),先點(diǎn)擊篩選,輸入我們喚醒詞的文件前綴,篩選出我們要操作的文件

5b95df02-3c5d-11f1-ab55-92fbcf53809c.png

2. 右側(cè)點(diǎn)擊音頻文件后,選擇Split sample,平臺(tái)會(huì)將聲音文件切分為大致1s的音頻片段

5ba28216-3c5d-11f1-ab55-92fbcf53809c.png

3. 在分割音頻界面,可以調(diào)整音頻片段,以覆蓋喚醒詞的聲音內(nèi)容,播放進(jìn)行試聽和調(diào)整

5bafaaf4-3c5d-11f1-ab55-92fbcf53809c.png

每個(gè)矩形框就是拆分提取的一個(gè)子模塊,如有必要,可以調(diào)整矩形的位置,讓其完全覆蓋住我們的喚醒詞音頻區(qū),或者也可以做一些添加或刪除片段的操作。

4. 拆分后的音頻文件都會(huì)變成獨(dú)立的音頻文件,網(wǎng)站會(huì)自動(dòng)添加后后綴名(xxxx_Sn)

5bbb8842-3c5d-11f1-ab55-92fbcf53809c.png

5. 按照上述步驟,將全部喚醒詞文件進(jìn)行分割好

6. 選擇 Test 列表的數(shù)據(jù),針對 喚醒詞 文件繼續(xù)進(jìn)行分割,noice 標(biāo)簽可以不用分割

5bdd1e08-3c5d-11f1-ab55-92fbcf53809c.png

7. 對數(shù)據(jù)進(jìn)行分類:按照下圖步驟將數(shù)據(jù)集分為兩大類,分別是 喚醒詞 + 其他

5be7445a-3c5d-11f1-ab55-92fbcf53809c.png5bf35326-3c5d-11f1-ab55-92fbcf53809c.png5c0e3e34-3c5d-11f1-ab55-92fbcf53809c.png

5 模型訓(xùn)練

5.1 創(chuàng)造脈沖信號(hào)(預(yù)處理/模型定義)

脈沖在這里是Edge Impulse用來表示數(shù)據(jù)處理—訓(xùn)練管道的詞匯。

創(chuàng)建脈沖并將窗口長度設(shè)置為 1000 毫秒,窗口長度增加設(shè)置為 500 毫秒(重疊窗口以增強(qiáng)數(shù)據(jù)),頻率設(shè)置 16KHz。

這些設(shè)置表示,每次執(zhí)行推理時(shí),傳感器數(shù)據(jù)采集將在 1000 毫秒內(nèi)完成,具體采集次數(shù)由采樣頻率決定。

簡而言之,你的設(shè)備會(huì)在 1000 毫秒的時(shí)間窗口內(nèi)收集 N 個(gè)數(shù)據(jù)樣本,隨后對這些樣本進(jìn)行預(yù)處理,并輸入神經(jīng)網(wǎng)絡(luò)以獲得推理結(jié)果。

操作步驟:

1. 點(diǎn)擊左側(cè)Create impulse

2. 然后點(diǎn)擊Add a processing block 添加 Audio(MFCC)

5c1796aa-3c5d-11f1-ab55-92fbcf53809c.png

3. 會(huì)彈出下面的對話框,使用默認(rèn)的配置即可:

5c2a7bf8-3c5d-11f1-ab55-92fbcf53809c.png

4. 使用MFCC,它使用梅爾頻率倒譜系數(shù)從音頻信號(hào)中提取特征,這對人類聲音非常有用。

5c3bf680-3c5d-11f1-ab55-92fbcf53809c.png5c4825c2-3c5d-11f1-ab55-92fbcf53809c.png

5. 然后點(diǎn)擊Add a learning block添加Classification模塊,它通過使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類從頭開始構(gòu)建我們的模型。

5c54730e-3c5d-11f1-ab55-92fbcf53809c.png5c605b6a-3c5d-11f1-ab55-92fbcf53809c.png

6. 最后點(diǎn)擊save impulse,保存配置

5c7f85e4-3c5d-11f1-ab55-92fbcf53809c.png

5.2 預(yù)處理(MFCC)

MFCC 是一種廣泛使用的方法,用于將音頻信號(hào)轉(zhuǎn)換為表示語音頻率模式的 2D 特征,這些特征非常適合基于語音的識(shí)別模型

我們創(chuàng)建錄制音頻生成的頻譜圖圖像,操作步驟:

1. 點(diǎn)擊MFCC,我們可以保留默認(rèn)參數(shù)值

2. 直接點(diǎn)擊Save parameters

5c91928e-3c5d-11f1-ab55-92fbcf53809c.png

3. 點(diǎn)擊Generate features,生成3個(gè)標(biāo)簽數(shù)據(jù)的特征

5caddf5c-3c5d-11f1-ab55-92fbcf53809c.png5cb9bcbe-3c5d-11f1-ab55-92fbcf53809c.png

5.3 模型設(shè)計(jì)與訓(xùn)練(Classifier)

下一步,我們需要對模型的結(jié)構(gòu)進(jìn)行設(shè)計(jì)和開始訓(xùn)練,步驟如下:

操作步驟:

1. 點(diǎn)擊左側(cè)Classifier,整個(gè)模型的結(jié)構(gòu)設(shè)計(jì)已經(jīng)配置好

2. 然后點(diǎn)擊save&train,開始訓(xùn)練模型。

5ccc059a-3c5d-11f1-ab55-92fbcf53809c.png

通過多次迭代,可以提升模型泛化能力。

經(jīng)過驗(yàn)證,提升方法包括:優(yōu)化測試數(shù)據(jù)集、調(diào)整模型結(jié)構(gòu)(如增加更多卷積層)等。

平臺(tái)對于訓(xùn)練時(shí)間有限制要求,免費(fèi)用戶只能進(jìn)行訓(xùn)練時(shí)間在20分鐘以內(nèi)的訓(xùn)練;

如果需要不限時(shí)間,需要購買付費(fèi)服務(wù)才可以進(jìn)行。

6 模型評估

操作步驟:

1. 點(diǎn)擊左側(cè)的Model testing

2. 然后點(diǎn)擊Classify all

3. 開始分類所有的測試集數(shù)據(jù)。

5cd821fe-3c5d-11f1-ab55-92fbcf53809c.png

4. 測試之后,可以在右側(cè)的Result查看測試結(jié)果

5d05d2e8-3c5d-11f1-ab55-92fbcf53809c.png

7 模型集成

7.1 生成模型庫文件

模型訓(xùn)練完成后,我們需要生成在 Edgi-Talk 平臺(tái)上運(yùn)行的庫文件。

操作步驟:

1. 點(diǎn)擊左側(cè)Deploment

2. 搜索Arduino libraryTensorFlow Lite

3. 然后點(diǎn)擊Build,待build完成后,保存下載的庫文件。

5d12e6c2-3c5d-11f1-ab55-92fbcf53809c.png5d2075b2-3c5d-11f1-ab55-92fbcf53809c.png

7.2 部署到嵌入式硬件

1. 將上一步下載得到的壓縮包進(jìn)行解壓,可以得到如下的文件目錄

5d3acdea-3c5d-11f1-ab55-92fbcf53809c.png

2. 獲取最新的 Edgi-Talk 開發(fā)板 SDK,進(jìn)入Edgi_Talk_M55_XiaoZhi/edge-impulse 目錄,刪除下圖中的兩個(gè)文件夾,然后將上一步中的兩個(gè)文件夾,替換到當(dāng)前目錄中,即可實(shí)現(xiàn)模型文件的替換

5d47bf32-3c5d-11f1-ab55-92fbcf53809c.png

3. 編譯 Edgi_Talk_M55_XiaoZhi 項(xiàng)目,并燒錄到開發(fā)板中。

4. 在 Edgi-Talk 串口終端中輸入下面的指令,開啟喚醒詞測試:

xz_wakeword_initxz_wakeword_start

4. 對開發(fā)板說出喚醒詞,這里演示使用的是“xiaorui,xiaorui”,當(dāng)說出喚醒詞的時(shí)候串口終端會(huì)打印日志

5d511c94-3c5d-11f1-ab55-92fbcf53809c.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 嵌入式
    +關(guān)注

    關(guān)注

    5209

    文章

    20625

    瀏覽量

    336758
  • EDGE
    +關(guān)注

    關(guān)注

    0

    文章

    193

    瀏覽量

    44225
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    67

    文章

    8561

    瀏覽量

    137208
  • IMPULSE
    +關(guān)注

    關(guān)注

    0

    文章

    8

    瀏覽量

    7278
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Syntiant TinyML板搭建Edge Impulse模型實(shí)現(xiàn)語音識(shí)別效果

    本次項(xiàng)目用 Syntiant TinyML 開發(fā)板自帶的麥克風(fēng),通過 Edge Impulse 搭建機(jī)器學(xué)習(xí)模型,使板卡上的 LED 燈根據(jù)中文語音指令呈現(xiàn)出不同效果。
    發(fā)表于 07-22 09:36 ?1918次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    全面剖析大語言模型的核心技術(shù)與基礎(chǔ)知識(shí)。首先,概述自然語言的基本表示,這是理解大語言模型技術(shù)的前提。接著,詳細(xì)介紹自然語言處理預(yù)訓(xùn)練的經(jīng)典
    發(fā)表于 05-05 12:17

    edge impulse的文件存入sd卡,插入sd卡到開發(fā)板后openmv中還是顯示找不到tflite模型和labels,怎么解決?

    edge impulse的文件存入sd卡,插入sd卡到開發(fā)板后openmv中還是顯示找不到tflite模型和labels。
    發(fā)表于 09-02 07:23

    Edge Impulse的回歸模型

    Edge Impulse的回歸模型可以從數(shù)據(jù)中學(xué)習(xí)模式,并將其應(yīng)用于新數(shù)據(jù)。 非常適合預(yù)測數(shù)字連續(xù)值。
    發(fā)表于 12-20 06:21

    Edge Impulse的分類模型淺析

    Edge Impulse是一個(gè)應(yīng)用于嵌入式領(lǐng)域的在線的機(jī)器學(xué)習(xí)網(wǎng)站,不僅為用戶提供了一些現(xiàn)成的神經(jīng)網(wǎng)絡(luò)模型以供訓(xùn)練,還能直接將訓(xùn)練好的
    發(fā)表于 12-20 06:51

    開發(fā)語音產(chǎn)品時(shí)設(shè)計(jì)喚醒和命令的技巧

    中只能由漢字組成,不允許有空格,逗號(hào)等其他字符;平臺(tái)提供了喚醒評價(jià)功能,如喚醒的適合度為“優(yōu)”,則是一個(gè)較好的喚醒
    發(fā)表于 10-25 15:09

    使用Arduino 33 BLE Sense和Edge Impulse構(gòu)建的咳嗽檢測系統(tǒng)

    Impulse Studio 訓(xùn)練咳嗽和背景噪聲樣本數(shù)據(jù)集,并構(gòu)建高度優(yōu)化的 TInyML 模型,該模型可以實(shí)時(shí)檢測咳嗽聲音。
    發(fā)表于 08-11 16:16 ?3586次閱讀
    使用Arduino 33 BLE Sense和<b class='flag-5'>Edge</b> <b class='flag-5'>Impulse</b>構(gòu)建的咳嗽檢測系統(tǒng)

    使用Edge Impulse識(shí)別大象活動(dòng)

    電子發(fā)燒友網(wǎng)站提供《使用Edge Impulse識(shí)別大象活動(dòng).zip》資料免費(fèi)下載
    發(fā)表于 11-02 10:51 ?2次下載
    使用<b class='flag-5'>Edge</b> <b class='flag-5'>Impulse</b>識(shí)別大象活動(dòng)

    修補(bǔ)Edge Impulse為MCU創(chuàng)建圖像、音頻和運(yùn)動(dòng)分類模型

    電子發(fā)燒友網(wǎng)站提供《修補(bǔ)Edge Impulse為MCU創(chuàng)建圖像、音頻和運(yùn)動(dòng)分類模型.zip》資料免費(fèi)下載
    發(fā)表于 11-08 14:30 ?0次下載
    修補(bǔ)<b class='flag-5'>Edge</b> <b class='flag-5'>Impulse</b>為MCU創(chuàng)建圖像、音頻和運(yùn)動(dòng)分類<b class='flag-5'>模型</b>

    使用Edge Impulse的Covid患者健康評估設(shè)備

    電子發(fā)燒友網(wǎng)站提供《使用Edge Impulse的Covid患者健康評估設(shè)備.zip》資料免費(fèi)下載
    發(fā)表于 11-11 14:39 ?0次下載
    使用<b class='flag-5'>Edge</b> <b class='flag-5'>Impulse</b>的Covid患者健康評估設(shè)備

    通過Edge Impulse開始使用TinyML

    電子發(fā)燒友網(wǎng)站提供《通過Edge Impulse開始使用TinyML.zip》資料免費(fèi)下載
    發(fā)表于 12-15 13:56 ?1次下載
    通過<b class='flag-5'>Edge</b> <b class='flag-5'>Impulse</b>開始使用TinyML

    借助 Edge Impulse 實(shí)現(xiàn) AI 開發(fā)的民主化

    借助 Edge Impulse 實(shí)現(xiàn) AI 開發(fā)的民主化
    的頭像 發(fā)表于 12-30 09:40 ?2843次閱讀

    語音識(shí)別喚醒技術(shù)與應(yīng)用

    是語音識(shí)別技術(shù)中的重要組成部分,它的作用是檢測語音輸入并判斷是否包含喚醒,如果包含則執(zhí)行相應(yīng)的指令或響應(yīng)。 語音識(shí)別喚醒
    的頭像 發(fā)表于 06-24 04:02 ?5117次閱讀

    使用Edge Impulse和Nvidia Jetson的面罩檢測器

    電子發(fā)燒友網(wǎng)站提供《使用Edge Impulse和Nvidia Jetson的面罩檢測器.zip》資料免費(fèi)下載
    發(fā)表于 06-26 11:29 ?1次下載
    使用<b class='flag-5'>Edge</b> <b class='flag-5'>Impulse</b>和Nvidia Jetson的面罩檢測器

    Edge Impulse發(fā)布新工具,助 NVIDIA 模型大規(guī)模部署

    借助 Edge Impulse 和 NVIDIA TAO 工具包的協(xié)同效應(yīng),工程師得以快速構(gòu)建并部署至邊緣優(yōu)化硬件(如上述型號(hào))的計(jì)算機(jī)視覺模型。該平臺(tái)還支持用戶運(yùn)用經(jīng)由 GPU 優(yōu)化的 NVIDIA TAO
    的頭像 發(fā)表于 03-25 16:00 ?1664次閱讀
    扶绥县| 嘉黎县| 阳泉市| 海林市| 吉安市| 呼玛县| 苏尼特左旗| 松潘县| 郴州市| 江都市| 满洲里市| 新巴尔虎右旗| 讷河市| 孟连| 皮山县| 望谟县| 开平市| 芜湖县| 遵化市| 富平县| 樟树市| 朝阳区| 文昌市| 浙江省| 新营市| 民权县| 娄烦县| 平果县| 江阴市| 定西市| 婺源县| 杭锦旗| 江永县| 泊头市| 梅州市| 土默特左旗| 林芝县| 青阳县| 富民县| 四子王旗| 东安县|