哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

你最看好哪個(gè)深度學(xué)習(xí)框架呢?

jmiy_worldofai ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-09-21 17:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

開(kāi)源的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)正步入成熟,而現(xiàn)在有許多框架具備為個(gè)性化方案提供先進(jìn)的機(jī)器學(xué)習(xí)人工智能的能力。那么如何決定哪個(gè)開(kāi)源框架最適合你呢?本文試圖通過(guò)對(duì)比度學(xué)習(xí)各大框架的優(yōu)缺點(diǎn),從而為各位讀者提供一個(gè)參考。

現(xiàn)在的許多機(jī)器學(xué)習(xí)框架都可以在圖像識(shí)別、手寫(xiě)識(shí)別、視頻識(shí)別、語(yǔ)音識(shí)別、目標(biāo)識(shí)別和自然語(yǔ)言處理等許多領(lǐng)域大展身手,但卻并沒(méi)有一個(gè)完美的深度神經(jīng)網(wǎng)絡(luò)能解決你的所有業(yè)務(wù)問(wèn)題。所以,本文希望下面的圖表和講解能夠提供直觀方法,幫助讀者解決業(yè)務(wù)問(wèn)題。

下圖總結(jié)了在 GitHub 中最受歡迎的開(kāi)源深度學(xué)習(xí)框架排名,該排名是基于各大框架在 GitHub 里的收藏?cái)?shù),這個(gè)數(shù)據(jù)由 Mitch De Felice 在 2017 年 5 月初完成。

TensorFlow

地址:https://www.tensorflow.org/

TensorFlow 最開(kāi)始是由谷歌一個(gè)稱(chēng)之為 DistBelief V2 的庫(kù)發(fā)展而來(lái),它是一個(gè)公司內(nèi)部的深度神經(jīng)網(wǎng)絡(luò)庫(kù),隸屬于谷歌大腦項(xiàng)目。有一些人認(rèn)為 TensorFlow 是由 Theano 徹底重構(gòu)而來(lái)。

谷歌開(kāi)源 TensorFlow 后,立即吸引了一大批開(kāi)發(fā)愛(ài)好者。TensorFlow 可以提供一系列的能力,例如圖像識(shí)別、手寫(xiě)識(shí)別、語(yǔ)音識(shí)別、預(yù)測(cè)以及自然語(yǔ)言處理等。2015 年 11 月 9 號(hào),TensorFlow 在 Apache 2.0 協(xié)議下開(kāi)源發(fā)布。

TensorFlow 1.0 版本已于 2017 年 2 月 15 日發(fā)布,這個(gè)版本是之前 8 個(gè)版本的優(yōu)化改進(jìn)版,其致力于解決 Tensorflow 之前遇到的一系列問(wèn)題以及完善一些核心能力。TensorFlow 獲得成功的因素有:

TensorFlow 提供了如下工具:TensorFlow Serving:可以保持相同的服務(wù)器架構(gòu)和 API,使得部署新算法和實(shí)驗(yàn)變 得簡(jiǎn) 單。TensorFlow Serving 提供了與 TensorFlow 模型開(kāi)箱即用的整合,但同時(shí)還能很 容易擴(kuò)展到其它類(lèi)型的模型和數(shù)據(jù)。

TensorFlow 編程接口支持 PythonC++。隨著 1.0 版本的公布,Java、Go、R 和 Haskell API 的 alpha 版本也將被支持。此外,TensorFlow 還可在谷歌云和亞馬孫云中運(yùn)行。

隨著 0.12 版本的發(fā)行,TensorFlow 將支持 Windows 7、 Windows 10 和 Server 2016。由于 TensorFlow 使用 C++ Eigen 庫(kù),所以庫(kù)可在 ARM 架構(gòu)上編譯和優(yōu)化。這也就意味著你可以在各種服務(wù)器和移動(dòng)設(shè)備上部署你的訓(xùn)練模型,而無(wú)需執(zhí)行單獨(dú)的模型解碼器或者加載 Python 解釋器。

TensorFlow 支持細(xì)粒度的網(wǎng)格層,而且允許用戶(hù)在無(wú)需用低級(jí)語(yǔ)言實(shí)現(xiàn)的情況下構(gòu)建新的復(fù)雜的層類(lèi)型。子圖執(zhí)行操作允許你在圖的任意邊緣引入和檢索任意數(shù)據(jù)的結(jié)果。這對(duì)調(diào)試復(fù)雜的計(jì)算圖模型很有幫助。

分布式 TensorFlow(Distributed TensorFlow)被加進(jìn)了 0.8 版本,它允許模型并行,這意味著模型的不同部分可在不同的并行設(shè)備上被訓(xùn)練。

自 2016 年 3 月,斯坦福大學(xué)、伯克利大學(xué)、多倫多大學(xué)和 Udacity 都將這個(gè)框架作為一個(gè)免費(fèi)的大規(guī)模在線開(kāi)放課程進(jìn)行教授。

TensorFlow 的缺點(diǎn)如下:

TensorFlow 的每個(gè)計(jì)算流都必須構(gòu)造為一個(gè)靜態(tài)圖,且缺乏符號(hào)性循環(huán)(symbolic loops),這會(huì)帶來(lái)一些計(jì)算困難。

沒(méi)有對(duì)視頻識(shí)別很有用的三維卷積(3-D convolution)。

盡管 TensorFlow 現(xiàn)在比起始版本(v0.5)快了 58 倍,但在執(zhí)行性能方面依然落后于競(jìng)爭(zhēng)對(duì)手。

Caffe

地址:http://caffe.berkeleyvision.org/

Caffe 是賈揚(yáng)清的杰作,目前他在 Facebook AI 平臺(tái)擔(dān)任首席工程師。Caffe 可能是自 2013 年底以來(lái)第一款主流的工業(yè)級(jí)深度學(xué)習(xí)工具包。正因?yàn)?Caffe 優(yōu)秀的卷積模型,它已經(jīng)成為計(jì)算機(jī)視覺(jué)界最流行的工具包之一,并在 2014 年的 ImageNet 挑戰(zhàn)賽中一舉奪魁。Caffe 遵循 BSD 2-Clause 協(xié)議。

Caffe 的快速使其完美應(yīng)用于實(shí)驗(yàn)研究和商業(yè)部署。Caffe 可在英偉達(dá)單個(gè) K40 GPU 上每天處理 6000 萬(wàn)張圖像。這大概是 1 毫秒預(yù)測(cè)一張圖片,4 毫秒學(xué)習(xí)一張圖片的速度,而且最新的版本處理速度會(huì)更快。

Caffe 基于 C++,因此可在多種設(shè)備上編譯。它跨平臺(tái)運(yùn)行,并包含 Windows 端口。Caffe 支持 C++、Matlab 和 Python 編程接口。Caffe 擁有一個(gè)龐大的用戶(hù)社區(qū),人們?cè)谄渲袨楸环Q(chēng)為「Model Zoo(https://github.com/BVLC/caffe/wiki/Model-Zoo)」的深度網(wǎng)絡(luò)庫(kù)做貢獻(xiàn)。AlexNet 和 GoogleNet 就是社群用戶(hù)構(gòu)建的兩個(gè)流行網(wǎng)絡(luò)。

雖然 Caffe 在視頻識(shí)別領(lǐng)域是一個(gè)流行的深度學(xué)習(xí)網(wǎng)絡(luò),但是 Caffe 卻不能像 TensorFlow、CNTK 和 Theano 那樣支持細(xì)粒度網(wǎng)絡(luò)層。構(gòu)建復(fù)雜的層類(lèi)型必須以低級(jí)語(yǔ)言完成。由于其遺留架構(gòu),Caffe 對(duì)循環(huán)網(wǎng)絡(luò)和語(yǔ)言建模的支持總體上很薄弱。

Caffe2

地址:https://caffe2.ai/

目前,賈揚(yáng)清和他在 Facebook 的團(tuán)隊(duì)正在開(kāi)發(fā)新一代框架 Caffe2。今年 4 月 18 日,F(xiàn)acebook 開(kāi)源了 Caffe2。Caffe 2 與 Caffe 的區(qū)別是什么?Caffe2 更注重模塊化,在移動(dòng)端、大規(guī)模部署上表現(xiàn)卓越。如同 TensorFlow,Caffe2 使用 C++ Eigen 庫(kù),支持 ARM 架構(gòu)。

用一個(gè)實(shí)用腳本,Caffe 上的模型可輕易地被轉(zhuǎn)變到 Caffe2 上。Caffe 設(shè)計(jì)的選擇使得它處理視覺(jué)類(lèi)型的難題時(shí)很完美。Caffe2 延續(xù)了它對(duì)視覺(jué)類(lèi)問(wèn)題的支持,且增加了對(duì)自然語(yǔ)言處理、手寫(xiě)識(shí)別、時(shí)序預(yù)測(cè)有幫助的 RNN 和 LSTM 支持。

期待不久之后能看到 Caffe 2 超越 Caffe,就像它宣稱(chēng)的那樣在深度學(xué)習(xí)社區(qū)流行。

在英偉達(dá)推出 Volta 架構(gòu)的第一塊加速卡 Tesla V100 后,Caffe 的開(kāi)發(fā)者第一時(shí)間展示了 Tesla V100 在 Caffe2 上運(yùn)行 ResNet-50 的評(píng)測(cè)。數(shù)據(jù)顯示在新框架和新硬件的配合下,模型每秒鐘可以處理 4100 張圖片。

鏈接:

https://caffe2.ai/blog/2017/05/10/caffe2-adds-FP16-training-support.html

CNTK

鏈接:https://github.com/Microsoft/CNTK/wiki

微軟的 CNTK(Microsoft Cognitive Toolkit)最初是面向語(yǔ)音識(shí)別的框架。CNTK 支持 RNN 和 CNN 類(lèi)型的網(wǎng)絡(luò)模型,從而在處理圖像、手寫(xiě)字體和語(yǔ)音識(shí)別問(wèn)題上,它是很好的選擇。使用 Python 或 C++ 編程接口,CNTK 支持 64 位的 Linux 和 Windows 系統(tǒng),在 MIT 許可證下發(fā)布。

與 TensorFlow 和 Theano 同樣,CNTK 使用向量運(yùn)算符的符號(hào)圖(symbolic graph)網(wǎng)絡(luò),支持如矩陣加 / 乘或卷積等向量操作。此外,像 TensorFlow 和 Theano 一樣,CNTK 有豐富的細(xì)粒度的網(wǎng)絡(luò)層構(gòu)建。構(gòu)建塊(操作)的細(xì)粒度使用戶(hù)不需要使用低層次的語(yǔ)言(如 Caffe)就能創(chuàng)建新的復(fù)雜的層類(lèi)型。

CNTK 也像 Caffe 一樣基于 C++ 架構(gòu),支持跨平臺(tái)的 CPU/GPU 部署。CNTK 在 Azure GPU Lab 上顯示出最高效的分布式計(jì)算性能。目前,CNTK 不支持 ARM 架構(gòu),這限制了其在移動(dòng)設(shè)備上的功能。

MXNet

鏈接:http://mxnet.io/

MXNet(發(fā)音為 mix-net)起源于卡內(nèi)基梅隆大學(xué)和華盛頓大學(xué)的實(shí)驗(yàn)室。MXNet 是一個(gè)全功能、可編程和可擴(kuò)展的深度學(xué)習(xí)框架,支持最先進(jìn)的深度學(xué)習(xí)模型。MXNet 支持混合編程模型(命令式和聲明式編程)和多種編程語(yǔ)言的代碼(包括 Python、C++、R、Scala、Julia、Matlab 和 JavaScript)。2017 年 1 月 30 日,MXNet 被列入 Apache Incubator 開(kāi)源項(xiàng)目。

MXNet 支持深度學(xué)習(xí)架構(gòu),如卷積神經(jīng)網(wǎng)絡(luò)(CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和其包含的長(zhǎng)短時(shí)間記憶網(wǎng)絡(luò)(LTSM)。該框架為圖像、手寫(xiě)文字和語(yǔ)音的識(shí)別和預(yù)測(cè)以及自然語(yǔ)言處理提供了出色的工具。有些人稱(chēng) MXNet 是世界上最好的圖像分類(lèi)器。

MXNet 具有可擴(kuò)展的強(qiáng)大技術(shù)能力,如 GPU 并行和內(nèi)存鏡像、快速編程器開(kāi)發(fā)和可移植性。此外,MXNet 與 Apache Hadoop YARN(一種通用分布式應(yīng)用程序管理框架)集成,使 MXNet 成為 TensorFlow 有力的競(jìng)爭(zhēng)對(duì)手。

MXNet 不僅僅只是深度網(wǎng)絡(luò)框架,它的區(qū)別在于支持生成對(duì)抗網(wǎng)絡(luò)(GAN)模型。該模型啟發(fā)自實(shí)驗(yàn)經(jīng)濟(jì)學(xué)方法的納什均衡。

Torch

鏈接:http://torch.ch/

Torch 由 Facebook 的 Ronan Collobert 和 Soumith Chintala,Twitter 的 Clement Farabet(現(xiàn)任職于英偉達(dá)),以及 Google DeepMind 的 Koray Kavukcuoglu 共同開(kāi)發(fā)。很多科技巨頭(如 Facebook、Twitter 和英偉達(dá))都使用定制版的 Torch 用于人工智能研究,這大大促進(jìn)了 Torch 的開(kāi)發(fā)。Torch 是 BSD 3 協(xié)議下的開(kāi)源項(xiàng)目。然而,隨著 Facebook 對(duì) Caffe 2 的研究,以及其對(duì)移動(dòng)設(shè)備的支持,Caffe 2 正成為主要的深度學(xué)習(xí)框架。

Torch 的編程語(yǔ)言為 Lua。Lua 不是主流語(yǔ)言,在開(kāi)發(fā)人員沒(méi)有熟練掌握 Lua 之前,使用 Torch 很難提高開(kāi)發(fā)的整體生產(chǎn)力。

Torch 缺乏 TensorFlow 的分布式應(yīng)用程序管理框架,也缺乏 MXNet 和 Deeplearning4J 對(duì) YARN 的支持。缺乏多種編程語(yǔ)言的 API 也限制了開(kāi)發(fā)人員。

PyTorch

地址:http://pytorch.org/

PyTorch 由 Adam Paszke、Sam Gross 與 Soumith Chintala 等人牽頭開(kāi)發(fā),其成員來(lái)自 Facebook FAIR 和其他多家實(shí)驗(yàn)室。它是一種 Python 優(yōu)先的深度學(xué)習(xí)框架,在今年 1 月被開(kāi)源,提供了兩種高層面的功能:

使用強(qiáng)大的 GPU 加速的 Tensor 計(jì)算(類(lèi)似 numpy)。構(gòu)建于基于 tape 的 autograd 系統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)

該框架結(jié)合了 Torch7 高效靈活的 GPU 加速后端庫(kù)與直觀的 Python 前端,它的特點(diǎn)是快速成形、代碼可讀和支持最廣泛的深度學(xué)習(xí)模型。如有需要,你可以復(fù)用你最喜歡的 Python 軟件包(如 numpy、scipy 和 Cython)來(lái)擴(kuò)展 PyTorch。該框架因?yàn)槠潇`活性和速度,在推出以后迅速得到了開(kāi)發(fā)者和研究人員的青睞。隨著 GitHub 上越來(lái)越多代碼的出現(xiàn),PyTorch 作為新框架缺乏資源的問(wèn)題已經(jīng)得以緩解。

Deeplearning4J

地址:https://deeplearning4j.org/

Deeplearning4J(DL4J)是用 Java 和 Scala 編寫(xiě)的 Apache 2.0 協(xié)議下的開(kāi)源、分布式神經(jīng)網(wǎng)絡(luò)庫(kù)。DL4J 最初由 SkyMind 公司的 Adam Gibson 開(kāi)發(fā),是唯一集成了 Hadoop 和 Spark 的商業(yè)級(jí)深度學(xué)習(xí)網(wǎng)絡(luò),并通過(guò) Hadoop 和 Spark 協(xié)調(diào)多個(gè)主機(jī)線程。DL4J 使用 Map-Reduce 來(lái)訓(xùn)練網(wǎng)絡(luò),同時(shí)依賴(lài)其它庫(kù)來(lái)執(zhí)行大型矩陣操作。

DL4J 框架支持任意芯片數(shù)的 GPU 并行運(yùn)行(對(duì)訓(xùn)練過(guò)程至關(guān)重要),并支持 YARN(Hadoop 的分布式應(yīng)用程序管理框架)。DL4J 支持多種深度網(wǎng)絡(luò)架構(gòu):RBM、DBN、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、RNTN 和長(zhǎng)短時(shí)間記憶網(wǎng)絡(luò)(LTSM)。DL4J 還對(duì)矢量化庫(kù) Canova 提供支持。

DL4J 使用 Java 語(yǔ)言實(shí)現(xiàn),本質(zhì)上比 Python 快。在用多個(gè) GPU 解決非平凡圖像(non-trivial image)識(shí)別任務(wù)時(shí),它的速度與 Caffe 一樣快。該框架在圖像識(shí)別、欺詐檢測(cè)和自然語(yǔ)言處理方面的表現(xiàn)出眾。

Theano

地址:http://deeplearning.net/software/theano/

Theano 由蒙特利爾大學(xué)算法學(xué)習(xí)人工智能實(shí)驗(yàn)室(MILA)維護(hù)。以 Theano 的創(chuàng)始人 Yoshua Bengio 為首,該實(shí)驗(yàn)室是深度學(xué)習(xí)研究領(lǐng)域的重要貢獻(xiàn)者,擁有約 30 至 40 名學(xué)生和教師。Theano 支持快速開(kāi)發(fā)高效的機(jī)器學(xué)習(xí)算法,在 BSD 協(xié)議下發(fā)布。

Theano 的架構(gòu)如同一個(gè)黑箱;整個(gè)代碼庫(kù)和接口使用 Python,其中 C/CUDA 代碼被打包成 Python 字符串。這使得開(kāi)發(fā)人員很難導(dǎo)航(navigate)、調(diào)試和重構(gòu)。

Theano 開(kāi)創(chuàng)了將符號(hào)圖用于神經(jīng)網(wǎng)絡(luò)編程的趨勢(shì)。Theano 的符號(hào)式 API 支持循環(huán)控制(即 scan),這使得實(shí)現(xiàn) RNN 容易且高效。

Theano 缺乏分布式應(yīng)用程序管理框架,只支持一種編程開(kāi)發(fā)語(yǔ)言。Theano 是很好的學(xué)術(shù)研究工具,在單個(gè) CPU 上運(yùn)行的效率比 TensorFlow 更有效。然而,在開(kāi)發(fā)和支持大型分布式應(yīng)用程序時(shí),使用 Theano 可能會(huì)遇到挑戰(zhàn)。

開(kāi)源 vs. 非開(kāi)源

隨著深度學(xué)習(xí)的不斷發(fā)展,我們必將看到 TensorFlow、Caffe 2 和 MXNet 之間的不斷競(jìng)爭(zhēng)。另一方面,軟件供應(yīng)商也會(huì)開(kāi)發(fā)具有先進(jìn)人工智能功能的產(chǎn)品,從數(shù)據(jù)中獲取最大收益。風(fēng)險(xiǎn):你將購(gòu)買(mǎi)非開(kāi)源的人工智能產(chǎn)品還是使用開(kāi)源框架?有了開(kāi)源工具,確定最適合的深度學(xué)習(xí)框架也是兩難問(wèn)題。在非開(kāi)源產(chǎn)品中,你是否準(zhǔn)備了退出策略?人工智能的收益會(huì)隨著工具的學(xué)習(xí)能力的進(jìn)步而上升,所以看待這些問(wèn)題都需要用長(zhǎng)遠(yuǎn)的觀點(diǎn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1819

    文章

    50284

    瀏覽量

    266761
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5603

    瀏覽量

    124598

原文標(biāo)題:從 TensorFlow 到 PyTorch:九大深度學(xué)習(xí)框架哪款最適合你?

文章出處:【微信號(hào):worldofai,微信公眾號(hào):worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    法拉電容串聯(lián)和并聯(lián)哪個(gè)好一點(diǎn)?

    當(dāng)你考慮給汽車(chē)電瓶并聯(lián)法拉電容(超級(jí)電容)時(shí),可能會(huì)疑惑:串聯(lián)與并聯(lián)哪個(gè)更好?這不僅關(guān)乎性能提升,還涉及到安全和成本
    的頭像 發(fā)表于 02-04 09:17 ?590次閱讀
    法拉電容串聯(lián)和并聯(lián)<b class='flag-5'>哪個(gè)</b>好一點(diǎn)<b class='flag-5'>呢</b>?

    強(qiáng)化學(xué)習(xí)會(huì)讓自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    是一種讓機(jī)器通過(guò)“試錯(cuò)”學(xué)會(huì)決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強(qiáng)化學(xué)習(xí)不會(huì)把每一步的“正確答案”都告訴,而是把環(huán)境、動(dòng)作和結(jié)果連起來(lái),讓機(jī)器自己
    的頭像 發(fā)表于 01-31 09:34 ?809次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會(huì)讓自動(dòng)駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    LuatOS框架的使用(上)

    在資源受限的物聯(lián)網(wǎng)終端設(shè)備中,如何實(shí)現(xiàn)快速開(kāi)發(fā)與穩(wěn)定運(yùn)行是關(guān)鍵挑戰(zhàn)。LuatOS框架通過(guò)將Lua語(yǔ)言與底層硬件抽象層深度融合,提供了一套簡(jiǎn)潔高效的開(kāi)發(fā)范式。本文將圍繞LuatOS框架的使用展開(kāi),從
    的頭像 發(fā)表于 01-27 19:38 ?316次閱讀
    LuatOS<b class='flag-5'>框架</b>的使用(上)

    ESP32和STM32哪個(gè)更容易學(xué)?

    很多人會(huì)問(wèn),ESP32和STM32到底哪個(gè)更容易學(xué)?其實(shí)這個(gè)問(wèn)題有點(diǎn)像問(wèn)自行車(chē)和汽車(chē)哪個(gè)更好開(kāi)——取決于你想去哪兒,以及享受的是過(guò)程還是結(jié)果。 ESP32更像是一個(gè)為搭好舞臺(tái)的智
    的頭像 發(fā)表于 01-15 15:53 ?435次閱讀
    ESP32和STM32<b class='flag-5'>哪個(gè)</b>更容易學(xué)?

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注
    的頭像 發(fā)表于 01-07 15:37 ?331次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺(jué)深度學(xué)習(xí)

    LX01Z-DG626穿孔機(jī)頂頭檢測(cè)儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線實(shí)時(shí)檢測(cè),頂頭丟失報(bào)警,頂頭異常狀態(tài)報(bào)警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,檢測(cè)頂頭溫度,配備吹掃清潔系統(tǒng),維護(hù)周期長(zhǎng)
    發(fā)表于 12-22 14:33

    這種很像深度學(xué)習(xí)的電路架構(gòu)圖是怎么畫(huà)的?

    如圖,這種圖解釋電路的模塊很清晰,請(qǐng)問(wèn)燒友們?cè)谀目梢岳L制這樣的模塊電路圖,哪個(gè)平臺(tái)這種素材比較多?
    發(fā)表于 12-12 09:26

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿(mǎn)足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開(kāi)發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿(mǎn)足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開(kāi)發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類(lèi):對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類(lèi) 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?308次閱讀

    覺(jué)得哪個(gè)軟件寫(xiě)verilog體驗(yàn)最好?有什么優(yōu)勢(shì)?

    覺(jué)得哪個(gè)軟件寫(xiě)verilog體驗(yàn)最好?有什么優(yōu)勢(shì)?請(qǐng)?jiān)谠u(píng)論區(qū)留言跟大家分享一下吧。
    發(fā)表于 11-10 07:47

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概
    的頭像 發(fā)表于 09-10 17:38 ?1025次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過(guò)模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1179次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4343次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    大模型時(shí)代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時(shí)代 ,AI模型的參數(shù)規(guī)模都在百萬(wàn)級(jí)別,僅需在單張消費(fèi)類(lèi)顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,模型參數(shù)量是約為 25.63M,在ImageNet1K數(shù)據(jù)集上,使用單張消費(fèi)類(lèi)顯卡 RTX-4090只需大約35~40個(gè)小時(shí) ,即可完成ResNet50模型的預(yù)訓(xùn)練。在 大模型時(shí)代 ,由于大模型參數(shù)規(guī)模龐大,無(wú)法跟CNN時(shí)代的小模型一樣在單張顯卡上完成訓(xùn)練,需要構(gòu)建多張AI加速卡的集群才能完成AI大模型的預(yù)訓(xùn)練
    的頭像 發(fā)表于 04-25 11:43 ?949次閱讀
    大模型時(shí)代的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>框架</b>
    肇庆市| 吉水县| 扬中市| 七台河市| 青冈县| 历史| 渭源县| 姚安县| 黄梅县| 九江县| 沽源县| 油尖旺区| 玉溪市| 鹤峰县| 永嘉县| 巍山| 玛多县| 清镇市| 瑞昌市| 阜新| 常宁市| 海城市| 双流县| 新化县| 廊坊市| 喜德县| 新巴尔虎右旗| 定南县| 榕江县| 井陉县| 响水县| 英山县| 罗平县| 霍城县| 汾西县| 海安县| 宜城市| 长宁县| 南木林县| 乐东| 页游|