哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI模型是如何訓(xùn)練的?訓(xùn)練一個(gè)模型花費(fèi)多大?

lPCU_elecfans ? 來源:未知 ? 2022-10-23 00:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)在深度學(xué)習(xí)中,經(jīng)常聽到一個(gè)詞“模型訓(xùn)練”,但是模型是什么?又是怎么訓(xùn)練的?在人工智能中,面對(duì)大量的數(shù)據(jù),要在雜亂無章的內(nèi)容中,準(zhǔn)確、容易地識(shí)別,輸出需要的圖像/語音,并不容易。因此算法顯得尤為重要。算法也就是模型。

算法的內(nèi)容,除了核心識(shí)別引擎,也包括各種配置參數(shù),如:語音智能識(shí)別的比特率、采樣率、音色、音調(diào)、音高、音頻、抑揚(yáng)頓挫、方言、噪音等。成熟的識(shí)別引擎,核心內(nèi)容一般不會(huì)經(jīng)常變化。為實(shí)現(xiàn)“識(shí)別成功”這一目標(biāo),就只能對(duì)配置參數(shù)做調(diào)整。

對(duì)不同輸入,我們會(huì)配置不同參數(shù)值,最后在結(jié)果統(tǒng)計(jì)取一個(gè)各方比較均衡、識(shí)別率較高的一組參數(shù)值,這組參數(shù)值,就是訓(xùn)練后得到的結(jié)果,這就是訓(xùn)練的過程,也叫模型訓(xùn)練。

如何訓(xùn)練一個(gè)AI模型?

訓(xùn)練模型需要用到AI框架,比如MindSpore。具體如何訓(xùn)練一個(gè)AI模型呢?昇思MindSpore此前發(fā)布一個(gè)詳細(xì)的案例,訓(xùn)練的模型是用來對(duì)手寫數(shù)字圖片進(jìn)行分類的LeNet5模型。MindSpore是華為推出全場(chǎng)景AI計(jì)算框架,2020年3月28日宣布MindSpore正式開源。 首先是安裝MindSpore,MindSpore提供給用戶使用的是Python接口。安裝的時(shí)候,選擇合適的版本、硬件平臺(tái)、操作系統(tǒng)編程語言、安裝方式。其次是定義模型,安裝好之后,就可以導(dǎo)入MindSpore提供的算子(卷積、全連接、池化等函數(shù))來構(gòu)建模型了。構(gòu)建一個(gè)AI模型就像建一個(gè)房子,MindSpore提供的算子就像是磚塊、窗戶、地板等基本組件。 接下來是導(dǎo)入訓(xùn)練數(shù)據(jù)集,什么是訓(xùn)練數(shù)據(jù)集呢,剛剛定義好的模型是不能對(duì)圖片進(jìn)行正確分類的,要通過訓(xùn)練過程來調(diào)整模型的參數(shù)矩陣的值。訓(xùn)練過程就需要用到訓(xùn)練樣本,也就是打上了正確標(biāo)簽的圖片。這就好比教小孩兒認(rèn)識(shí)動(dòng)物,需要拿幾張圖片給他們看,告訴他們這是什么,教了幾遍之后,小孩兒就能認(rèn)識(shí)了。 那么這里訓(xùn)練LeNet5模型就需要用到MNIST數(shù)據(jù)集。這個(gè)數(shù)據(jù)集由兩部分組成:訓(xùn)練集(6萬張圖片)和測(cè)試集(1萬張圖片),都是0~9的黑白手寫數(shù)字圖片。訓(xùn)練集是用來訓(xùn)練AI模型的,測(cè)試集是用來測(cè)試訓(xùn)練后的模型分類準(zhǔn)確率的。 再接下來就是訓(xùn)練模型,訓(xùn)練數(shù)據(jù)集和模型定義完成后,就可以開始訓(xùn)練模型了。在訓(xùn)練之前,還需要從MindSpore導(dǎo)入兩個(gè)函數(shù):損失函數(shù),就是衡量預(yù)測(cè)結(jié)果和真實(shí)標(biāo)簽之間的差距的函數(shù);優(yōu)化器,用來求解損失函數(shù)關(guān)于模型參數(shù)的更新梯度的。準(zhǔn)備好之后,開始訓(xùn)練,把前面定義好的模型、損失函數(shù)、優(yōu)化器封裝成一個(gè)Model,使用model.train接口就可以訓(xùn)練LeNet5模型了。最后就是測(cè)試訓(xùn)練后的模型準(zhǔn)確率。

訓(xùn)練AI模型花費(fèi)大當(dāng)然,模型訓(xùn)練需要強(qiáng)大的算力支撐,尤其是參數(shù)量大的模型,花費(fèi)極大。 比如OpenAI的語言模型GPT-3,這是一個(gè)大型的、數(shù)學(xué)模擬神經(jīng)網(wǎng)絡(luò),從網(wǎng)絡(luò)上抓取大量文本進(jìn)行訓(xùn)練后,GPT-3可以以驚人的連貫性預(yù)測(cè)哪些詞應(yīng)該填在其他詞前后,生成流暢的文本。據(jù)估計(jì),訓(xùn)練GPT-3的成本接近500萬美元。 一些小企業(yè)想要訓(xùn)練一個(gè)參數(shù)較大的算法,往往比較苦難。健康IT公司Optum的一位領(lǐng)導(dǎo)此前表示,他們團(tuán)隊(duì)使用語言模型來分析通話記錄,識(shí)別哪些患者風(fēng)險(xiǎn)較高,哪些應(yīng)該及早推薦轉(zhuǎn)診。只是訓(xùn)練一個(gè)GPT-3大小千分之一的語言模型,也會(huì)很快耗盡團(tuán)隊(duì)的預(yù)算。 另外一家從事搜索業(yè)務(wù)的創(chuàng)業(yè)公司Glean,一直很想使用最新的AI算法來改進(jìn)公司的產(chǎn)品。 Glean提供Gmail、Slack和Salesforce等應(yīng)用程序進(jìn)行搜索的工具,用于解析語言的新AI技術(shù),可以幫助公司的客戶更快地發(fā)掘正確的文件或?qū)υ挕?/span> 但是訓(xùn)練這樣一個(gè)尖端的人工智能算法需要花費(fèi)數(shù)百萬美元。Glean只好使用更小、能力更弱的AI模型,然而這些模型無法從文本中提取出盡可能多的含義。

小結(jié)過去十幾年,AI取得了一些列舉世矚目的成績(jī),包括在游戲中擊敗人類,讓汽車可以行駛在城市的街道上,AI自己編寫連貫的文字,做出可以媲美畫家的畫作。這都得益于數(shù)據(jù)量的不斷積累,算法的不斷優(yōu)化,以及可以支撐算法訓(xùn)練的算力的不斷強(qiáng)化。 然而,在發(fā)展的過程中同樣還存在一些問題。比如對(duì)于小企業(yè)來說,訓(xùn)練高級(jí)AI算法成本高,這就會(huì)使得AI的全面應(yīng)用受到阻礙等問題。當(dāng)然AI整體呈現(xiàn)出快速發(fā)展的趨勢(shì),業(yè)界也在不斷探索有利于AI發(fā)展的方式,比如大模型的出現(xiàn),本身也是為了解決通用性的問題,比如說模型簡(jiǎn)化,減少模型訓(xùn)練所需要算力等。 8de4b586-5224-11ed-a3b6-dac502259ad0.png ?

8e265072-5224-11ed-a3b6-dac502259ad0.png

聲明:本文由電子發(fā)燒友原創(chuàng),轉(zhuǎn)載請(qǐng)注明以上來源。如需入群交流,請(qǐng)?zhí)砑游⑿舉lecfans999,投稿爆料采訪需求,請(qǐng)發(fā)郵箱huangjingjing@elecfans.com。 更多熱點(diǎn)文章閱讀


原文標(biāo)題:AI模型是如何訓(xùn)練的?訓(xùn)練一個(gè)模型花費(fèi)多大?

文章出處:【微信公眾號(hào):電子發(fā)燒友網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40908

    瀏覽量

    302477
  • 人工智能
    +關(guān)注

    關(guān)注

    1819

    文章

    50284

    瀏覽量

    266772

原文標(biāo)題:AI模型是如何訓(xùn)練的?訓(xùn)練一個(gè)模型花費(fèi)多大?

文章出處:【微信號(hào):elecfans,微信公眾號(hào):電子發(fā)燒友網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI模型微調(diào)企業(yè)項(xiàng)目實(shí)戰(zhàn)課

    自主可控大模型:企業(yè)微調(diào)實(shí)戰(zhàn)課,筑牢未來 AI 底座 在人工智能席卷全球商業(yè)版圖的今天,企業(yè)對(duì)大模型(LLM)的態(tài)度已經(jīng)從“新奇觀望”轉(zhuǎn)變?yōu)椤叭鎿肀А?。然而,隨著應(yīng)用層面的不斷深入,
    發(fā)表于 04-16 18:48

    AI模型訓(xùn)練與部署實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    你是否想系統(tǒng)了解AI落地全鏈路,但缺少個(gè)完整的實(shí)戰(zhàn)項(xiàng)目練手?模型部署環(huán)節(jié)繁多,缺乏套清晰的實(shí)戰(zhàn)路徑?4月18日、4月25日、5月16日R
    的頭像 發(fā)表于 04-07 13:08 ?578次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>與部署實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    如何訓(xùn)練自己的AI模型——RT-Thread×富瀚微FH8626V300L模型訓(xùn)練部署教程 | 技術(shù)集結(jié)

    面對(duì)消費(fèi)電子中紛繁的智能檢測(cè)需求,如何讓算法持續(xù)進(jìn)化?富瀚微最新發(fā)布的FH86X6V300芯片AI訓(xùn)練教程,以FH8626V300L為硬件核心,手把手帶您走通從模型訓(xùn)練到端側(cè)部署的完整
    的頭像 發(fā)表于 02-09 11:51 ?579次閱讀
    如何<b class='flag-5'>訓(xùn)練</b>自己的<b class='flag-5'>AI</b><b class='flag-5'>模型</b>——RT-Thread×富瀚微FH8626V300L<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>部署教程 | 技術(shù)集結(jié)

    訓(xùn)練到推理:大模型算力需求的新拐點(diǎn)已至

    在大模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點(diǎn)主要集中在大模型訓(xùn)練所需的算力投入。個(gè)萬億參數(shù)大模型
    的頭像 發(fā)表于 02-05 16:07 ?997次閱讀
    從<b class='flag-5'>訓(xùn)練</b>到推理:大<b class='flag-5'>模型</b>算力需求的新拐點(diǎn)已至

    RA8P1部署ai模型指南:從訓(xùn)練模型到部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑在板子上”,決定了項(xiàng)目能否落地。我們帶你基于RA8P1平臺(tái),跑通從數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、量
    的頭像 發(fā)表于 11-20 18:06 ?2334次閱讀
    RA8P1部署<b class='flag-5'>ai</b><b class='flag-5'>模型</b>指南:從<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>到部署?|?本周六

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是
    發(fā)表于 10-22 07:03

    文看懂AI訓(xùn)練、推理與訓(xùn)推體的底層關(guān)系

    我們正在參加全球電子成就獎(jiǎng)的評(píng)選,歡迎大家?guī)臀覀兺镀薄x謝支持很多人聽過“大模型”,但沒搞懂兩件事。我們總說AI有多強(qiáng),但真正決定AI能否落地的,是它的兩個(gè)階段:
    的頭像 發(fā)表于 09-19 11:58 ?2844次閱讀
    <b class='flag-5'>一</b>文看懂<b class='flag-5'>AI</b><b class='flag-5'>訓(xùn)練</b>、推理與訓(xùn)推<b class='flag-5'>一</b>體的底層關(guān)系

    模板驅(qū)動(dòng) 無需訓(xùn)練數(shù)據(jù) SmartDP解決小樣本AI算法模型開發(fā)難題

    。但是這個(gè)平臺(tái)不適用于小樣本AI模型開發(fā),特別是些特殊行業(yè),數(shù)據(jù)本來就不多,但又有著需求,因此陷于兩難。面臨這種市場(chǎng)困境,慧視光電推出了個(gè)
    的頭像 發(fā)表于 09-09 17:57 ?1535次閱讀
    模板驅(qū)動(dòng)  無需<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)  SmartDP解決小樣本<b class='flag-5'>AI</b>算法<b class='flag-5'>模型</b>開發(fā)難題

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報(bào)什么錯(cuò)?
    發(fā)表于 07-30 08:15

    摩爾線程“AI工廠”:五大核心技術(shù)支撐,打造大模型訓(xùn)練超級(jí)工廠

    演講中表示,為應(yīng)對(duì)生成式AI爆發(fā)式增長(zhǎng)下的大模型訓(xùn)練效率瓶頸,摩爾線程將通過系統(tǒng)級(jí)工程創(chuàng)新,構(gòu)建新AI
    的頭像 發(fā)表于 07-28 11:28 ?4815次閱讀
    摩爾線程“<b class='flag-5'>AI</b>工廠”:五大核心技術(shù)支撐,打造大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>超級(jí)工廠

    make sence成的XML文件能上傳到自助訓(xùn)練模型上嗎?

    make sence成的XML文件能上傳到自助訓(xùn)練模型上嗎
    發(fā)表于 06-23 07:38

    嵌入式AI技術(shù)漫談:怎么為訓(xùn)練AI模型采集樣本數(shù)據(jù)

    多少數(shù)據(jù),才能形成合適的樣本集,進(jìn)而開始訓(xùn)練模型呢? 此時(shí),回答“按需提供”或者“先試試看”似乎會(huì)變成句車轱轆話,看似回答了問題,但客戶還是無從下手。 AI數(shù)據(jù)樣本的三
    的頭像 發(fā)表于 06-11 16:30 ?1521次閱讀

    運(yùn)行kmodel模型驗(yàn)證直報(bào)錯(cuò)怎么解決?

    我這運(yùn)行kmodel模型驗(yàn)證直報(bào)錯(cuò),所以沒法做kmodel模型好壞驗(yàn)證,不知道怎么解決這個(gè)問題,重新訓(xùn)練
    發(fā)表于 06-10 08:02

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級(jí)AI攝像機(jī),進(jìn)行
    發(fā)表于 04-28 11:11

    AI原生架構(gòu)升級(jí):RAKsmart服務(wù)器在超大規(guī)模模型訓(xùn)練中的算力突破

    近年來,隨著千億級(jí)參數(shù)模型的崛起,AI訓(xùn)練對(duì)算力的需求呈現(xiàn)指數(shù)級(jí)增長(zhǎng)。傳統(tǒng)服務(wù)器架構(gòu)在應(yīng)對(duì)分布式訓(xùn)練、高并發(fā)計(jì)算和顯存優(yōu)化等場(chǎng)景時(shí)逐漸顯露瓶頸。而RAKsmart為超大規(guī)模
    的頭像 發(fā)表于 04-24 09:27 ?890次閱讀
    田东县| 封丘县| 揭西县| 宜昌市| 嘉善县| 裕民县| 西安市| 福州市| 墨玉县| 横峰县| 新和县| 铅山县| 华池县| 金华市| 江川县| 鄂伦春自治旗| 志丹县| 金溪县| 甘泉县| 吴江市| 宜州市| 安西县| 拜泉县| 衡南县| 南木林县| 土默特右旗| 宁武县| 汝阳县| 黔西| 来安县| 兴宁市| 甘泉县| 松桃| 阿巴嘎旗| 靖安县| 桂阳县| 眉山市| 安多县| 盐池县| 高邑县| 涿州市|