哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

機器學習:三張拉面圖,就能識別出每碗拉面在哪家出品

DPVg_AI_era ? 來源:未知 ? 作者:伍文輝 ? 2018-03-30 16:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

只要三張拉面圖,就能識別出每碗拉面是在41家不同拉面店中的哪家制作出來。數(shù)據(jù)科學家Kenji Doi開發(fā)了一種拉面專家AI分類器,它能辨別出不同拉面之間的細微差異。這背后,是谷歌AutoML Vision提供的ML模型。

看下面的三碗拉面。你能相信機器學習(ML)模型能以95%的準確率識別出每碗拉面是在41家拉面店中的哪家制作的么?數(shù)據(jù)科學家Kenji Doi開發(fā)了一種拉面專家AI分類器,它能辨別出不同拉面之間的細微差異。

拉面Jiro是日本最受歡迎的連鎖餐廳之一,因為它的配料、面條和湯的價格都很便宜。這個連鎖餐廳在東京有41家分店,每家店都有基本相同的菜單。

正如你在照片中所看到的,對于一個剛剛接觸拉面的人來說,幾乎不可能知道每碗面的制作材料是什么,因為它們看起來幾乎是一樣的。你不相信自己可以通過看這些照片來辨別這些面到底屬于41家餐館的哪一家。

Kenji想知道深度學習是否能幫助解決這個問題。他從網(wǎng)絡上收集了48,244張Jiro做的拉面的圖片。在刪除了不適合進行模型訓練的照片之后(比如重復照片或沒有拉面的照片),他為每個餐館準備了大約1,170張照片,也就是48000張帶有商店標簽的照片。

AutoML Vision達到了94.5%的準確率

當Kenji正在研究這個問題時,他了解到Google剛剛發(fā)布了AutoML Vision的alpha版本。

AutoML Vision允許用戶在不具備設計ML模型的專業(yè)知識的情況下使用自己的圖像定制ML模型。首先,你要做的就是上傳圖像文件進行模型訓練,并確保上傳數(shù)據(jù)具有正確的標簽。一旦完成了定制模型的訓練,您就可以輕松地將其應用到到可擴展的服務平臺上,以便通過自動擴展擁有的資源來滿足實際需求。整個過程是為那些不具備專業(yè)ML知識的非數(shù)據(jù)科學家設計的。

AutoML Vision訓練、部署和服務自定義ML模型的過程

當Kenji獲得了AutoML Vision的alpha版本后,他試了一下。他發(fā)現(xiàn)用帶有商店標簽的拉面照片作為數(shù)據(jù)集訓練模型時,F(xiàn)值可以達到94.5%,其中精確率未94.8%,召回率為94.5%。

使用AutoML Vision(高級模式)的拉面店分類器的混淆矩陣(行=實際店鋪,欄=預測店鋪)

通過觀察上圖的混淆矩陣,您可以看到AutoML Vision在每個測試樣例中,僅僅對幾個樣本做出了錯誤的分類。

這怎么可能?每個照片使用AutoML檢測區(qū)別是什么?Kenji想知道ML模型如何能準確地識別出拉面對應的商店。起初,他認為模型是在看碗,或桌子的顏色或形狀。但是,正如你在上面的照片中所看到的,即使每個商店在他們的照片中使用了相同的碗和桌子設計,這個模型也非常準確。Kenji的新理論是,該模型精確地能夠區(qū)分肉塊和澆頭的細微差別。他計劃繼續(xù)在AutoML上做實驗,看看他的理論是否正確。

數(shù)據(jù)科學的自動化技術

在嘗試AutoML Vision之前,Kenji花了相當多的時間來為他的拉面分類項目建立自己的ML模型。他仔細地選擇了一個通過Inception,ResNetSE-ResNeXt獲得的一個集合模型,構建了一個數(shù)據(jù)增強設置,在超參數(shù)調(diào)優(yōu)上耗費了很長的時間,如改變學習率等,并引入他積累的知識作為一個專家知識。

但是,通過AutoML Vision,Kenji發(fā)現(xiàn)他唯一需要做的就是上傳圖片并點擊“訓練”按鈕,僅此而已。通過AutoML Vision,他不費吹灰之力就能夠訓練一個ML模型。

標記圖像集的示例。借助AutoML Vision,您只需上傳帶有標簽的圖像即可開始使用

當使用AutoML Vision訓練一個模型時,有兩種模式任你選擇:基本模式或高級模式。在基本模式下,AutoML Vision可以在18分鐘之內(nèi)完成Kenji的訓練數(shù)據(jù)。在高級模式下用了將近24個小時。在這兩種情況下,他都沒有執(zhí)行任何超參數(shù)調(diào)優(yōu)、數(shù)據(jù)擴充或嘗試不同的ML模型類型。一切都是自動化處理,不需要擁有相關的專業(yè)知識。

據(jù)Kenji說,“在基本模式下無法獲得最優(yōu)的準確性,但是可以在很短的時間內(nèi)得到一個粗略的結果。而高級模式可以在用戶不進行任何優(yōu)化或具備任何學習技能的情況下獲得最優(yōu)的精度。這樣看來,這個工具肯定會提高數(shù)據(jù)科學家的生產(chǎn)力。數(shù)據(jù)科學家們已經(jīng)為我們的客戶進行了太多的人工智能解答,因此,我們必須盡快將深度學習應用到PoCs上。有了AutoML Vision,數(shù)據(jù)科學家就不需要為了獲得最優(yōu)的模型結果花很長時間來培訓和優(yōu)化模型獲。這意味著即使只有擁有限數(shù)量的數(shù)據(jù)科學家,企業(yè)也可以擴大他們的人工智能產(chǎn)業(yè)?!?/p>

他喜歡AutoML Vision還有因為其另外一個特點:“AutoML Vision太酷了,你可以在訓練后使用它的在線預測功能。而這項任務對于數(shù)據(jù)科學家來說通常是特別耗時的,因為必須要將模型部署到生產(chǎn)服務環(huán)境中后,再對其進行管理?!?/p>

以90%的準確率將商品進行品牌分類

AutoML Vision在另一個不同的用例中也證明了它的能力:對產(chǎn)品進行品牌分類。Mercari是日本最受歡迎的銷售APP之一,它在美國也受到越來越多人的青睞,它一直在嘗試通過閃頻的圖片自動識別其品牌。

Mercari官網(wǎng)

在日本,Mercari推出了一款名為Mercari MAISONZ的新App,用于銷售品牌商品。Mercari在這款應用中開發(fā)了自己的ML模型,在用戶的圖片上傳界面中,該模型可以對12個主要品牌的商品進行分類。該模型使用了VGG16在TensorFlow上的遷移學習,準確率達到75%。

正如ML模型預測的那樣,用戶上傳圖片界面顯示了品牌名稱

而當Mercari在AutoML Vision的高級模式下嘗試用5000個訓練來進行訓練,它達到了91.3%的準確率。這比他們現(xiàn)有的模型高出了15%。

Mercari的AutoML Vision模型(高級模式)的準確性分數(shù)(精確度/召回率)

Mercari的AutoML Vision模型的混淆矩陣(高級模式)

對AutoML Vision的近距離觀察

Mercari的數(shù)據(jù)科學家Shuhei Fujiwara對這個結果感到非常驚訝,他說:“我無法想象谷歌是如何做到如此高精度的!”

用于大規(guī)模圖像分類和對象檢測的AutoML

高級模式里面,除了轉移學習還有什么呢?實際上,其中還包括谷歌的學習技術,特別是NASNet。

NASNet使用ML來優(yōu)化ML:元級ML模型試圖為特定的訓練數(shù)據(jù)集獲得最佳的深度學習模型。這才是高級模式的秘密,它代表了谷歌的“人工智能”哲學。這項技術可以讓用戶在不用長時間學習人工智能的情況下,充分地利用最先進的深度學習能力。

Shuhei還很喜歡這項服務的用戶界面?!八苋菀资褂?,你不需要對超參數(shù)優(yōu)化做任何的人工處理,而且在UI上的一個混淆矩陣也為用戶來帶了方便,因為它可以幫助用戶快速檢查模型的準確性。該服務還允許你將最耗時的人工標記工作交給谷歌。因此,我們正在等待公測版本取代現(xiàn)有的自動化版本,這樣就可以將其部署到生產(chǎn)環(huán)境中了?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6257

    瀏覽量

    111936
  • 人工智能
    +關注

    關注

    1819

    文章

    50284

    瀏覽量

    266801
  • 機器學習
    +關注

    關注

    67

    文章

    8560

    瀏覽量

    137198

原文標題:【谷歌云AutoML Vision官方教程】手把手教會訓練模型解決計算機視覺問題,準確率達94.5%

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    智能機器人從0到1系統(tǒng)入門課程 帶源碼課件 百度網(wǎng)盤下載

    說話”。它不僅能識別出“這是一杯水”,還能理解“杯子在桌子邊緣,可能會掉下來”這種復雜的空間關系和潛在風險。通過攝像頭捕捉實時畫面,機器人可以進行物體檢測、人臉識別甚至手勢理解。例如,在家庭服務場景中
    發(fā)表于 04-11 16:41

    NI-PCIE-8510 在Ni-linux-rt系統(tǒng)上怎樣可以被正確識別。

    卡的驅動,NI-XNET;理論上來說,只要把CAN卡插到PCIE插槽后,就可以通過上位機的NI-MAX查看到該CAN卡; 實際插到PCIE插槽后,發(fā)現(xiàn)NI-MAX只能識別出該系統(tǒng)有這么一PCIE設備
    發(fā)表于 04-03 15:35

    關于rt1052 sdk2.11.0例子usb_device_msc_disk的疑問求解

    : 2、跑usb_device_msc_disk例子,結果正常識別出兩個分區(qū); 3、但我只想被PC識別出sd卡第一個分區(qū),所以嘗試著修改,如下 結果確實只識別出第一個分區(qū),也是能夠正常使用, 但我不清楚這是否是
    發(fā)表于 04-02 06:22

    純視覺自動駕駛能識別出高透明玻璃墻嗎?

    [首發(fā)于智駕最前沿微信公眾號]最近在和大家聊純視覺自動駕駛能否識別3D圖像時,有小伙伴提問,純視覺自動駕駛能否識別出高透明玻璃墻,今天智駕最前沿就和大家簡單聊聊相關內(nèi)容。 當然,在開始今天的話題前
    的頭像 發(fā)表于 02-18 08:49 ?1.1w次閱讀
    純視覺自動駕駛能<b class='flag-5'>識別出</b>高透明玻璃墻嗎?

    機器學習和深度學習中需避免的 7 個常見錯誤與局限性

    ,并驗證輸出結果,就能不斷提升專業(yè)技能,養(yǎng)成優(yōu)秀數(shù)據(jù)科學家的工作習慣。需避免的機器學習和深度學習數(shù)據(jù)錯誤在訓練數(shù)據(jù)驅動的人工智能模型時,我們會遇到一些常見錯誤和局
    的頭像 發(fā)表于 01-07 15:37 ?334次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>和深度<b class='flag-5'>學習</b>中需避免的 7 個常見錯誤與局限性

    PC識別出來的COM口如何更改名字?

    PC識別出來的串口名稱:USB串行設備(COM8),如何才能更改這個名字呢,比如USB_SERISL_CH40(COMX)
    發(fā)表于 09-25 07:39

    ST25R3911B同時識別多張NFCA卡為什么要進行七輪輪詢才能讀取到?能不能減少輪數(shù)獲得更快的讀取速度?

    這是我初始化的代碼 這是demo cycle里面我進行修改了的部分 我的需求是最多同時讀三張NFCA卡,還有什么方法可以盡量減少讀取的時間?
    發(fā)表于 08-05 07:29

    TC397 EVB板子DAP調(diào)試接口不一致,是否導致我無法穩(wěn)定燒寫程序問題?

    板子DAP接口不一致,是這個問題導致內(nèi)核識別不穩(wěn)定么? 已下是三張,分別是官網(wǎng)給的圖紙參考截圖、KIT A2G TC397 5V TRB的DAP下載接口、KIT A2G TC397 3V3 TFT 的DAP下載接口。
    發(fā)表于 07-22 06:33

    【嘉楠堪智K230開發(fā)板試用體驗】K230機器視覺相關功能體驗

    K230開發(fā)板攝像頭及AI功能測評 攝像頭作為機器視覺應用的基礎,能夠給機器學習模型提供輸入,提供輸入的質量直接影響機器學習模型的效果。 K
    發(fā)表于 07-08 17:25

    為什么我的反激DS波形是這樣的,但是帶載卻還是比較正常,有大佬知道這是什么原因么

    第一和第二是空載的時候,第三張和第四
    發(fā)表于 06-30 16:00

    STM32N6570-DK 的STLINK口不能識別出STLINK,為什么?

    使用數(shù)據(jù)線連接STM32N6570-DK的CN6口和電腦,存在不能識別出STLINK的情況。這個板子集成的STLINK是連上數(shù)據(jù)線就能識別出STLINK,還是配置硬件才能識別出來?我電
    發(fā)表于 06-16 07:14

    詳細介紹機場智能指路機器人的工作原理

    和理解,識別出旅客的問題意圖和關鍵信息,如目的地、查詢的設施類型等。為了提高語音識別的準確率,機器人會對不同的語言、口音和方言進行訓練和優(yōu)化,能夠適應來自世界各地旅客的語音輸入。 語音合成與反饋 :在理
    發(fā)表于 05-10 18:26

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎算法的應用

    閱讀心得體會:ROS2機器人視覺與地圖構建技術 通過對本書第7章(ROS2視覺應用)和第8章(ROS2地構建)的學習,我對機器人視覺感知和自主導航的核心技術有了更深入的理解。以下是我
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】機器人入門的引路書

    的限制和調(diào)控) 本書還有很多前沿技術項目的擴展 比如神經(jīng)網(wǎng)絡識別例程,機器學習圖像識別的原理,yolo圖像追蹤的原理 機器
    發(fā)表于 04-30 01:05

    有人這CAN機器手臂控制板的原理嗎?CAN舵機ID無法被識別

    的舵機ID無法識別嗎? 第一,除了左上角(PLCC封裝)那顆芯片被我取下來了,其下方的兩個SOP封裝芯片,中間PLCC封裝及SD卡槽,是買來就沒有焊的,是因為缺少某個芯片(例如:MCP2515
    發(fā)表于 04-22 12:19
    辰溪县| 陕西省| 运城市| 尼勒克县| 赤城县| 土默特右旗| 林周县| 姚安县| 临清市| 永定县| 漠河县| 玛曲县| 揭东县| 黎城县| 岐山县| 罗源县| 鄯善县| 周宁县| 定西市| 上杭县| 师宗县| 兰西县| 自贡市| 沙河市| 南雄市| 明星| 星子县| 宁陕县| 武平县| 林芝县| 襄垣县| 安阳市| 巴楚县| 陈巴尔虎旗| 贵港市| 莫力| 安徽省| 阳西县| 融水| 周宁县| 鄂州市|