人工智能還有很長的路要走。
它需要明白在樹干上爬的動物不一定是松鼠,也可能是貓咪;尖頭長條的物體也不一定是燈塔,有可能是風(fēng)鈴;在鮮艷物體上的小生物不一定是蜜蜂,也可能是蝸牛。
雖然人工智能在飛速的進步之中,但它目前還并沒有我們想象的那么強大。它也會犯錯,有些錯誤在我們看來甚至有些“低級”。
加州大學(xué)伯克利分校的博士生們就介紹了一些真實的案例。在他們展示的7500個圖片案例中,AI基本都在“自然對抗性案例”中敗下陣來,精度下降了90%,準(zhǔn)確度也只有2%左右。
雖然這些圖像在我們眼里都非常好辨別。但在AI的算法中,蘑菇會被認(rèn)成椒鹽卷餅,綠色的蜻蜓被認(rèn)成了井蓋,呆萌的松鼠也被認(rèn)成了比他們大數(shù)倍的海獅。
不只認(rèn)圖出現(xiàn)了較大錯誤,并且想要好好“調(diào)教”AI,將它引導(dǎo)回正確的道路上也不容易。實驗中的案例證明了AI識別當(dāng)前分類器有著深層缺陷,它們會過分依賴顏色、紋理和背景提示。同時,博士們發(fā)現(xiàn)提高魯棒性的流行訓(xùn)練技術(shù)也收效甚微。
這個數(shù)據(jù)庫是ImageNet的一個子集,它由不斷欺騙人工智能的圖像組成,包含了超過1400萬幅手工標(biāo)記的圖像用于訓(xùn)練AI。如果你想讓AI 在看到貓的時候就能辨認(rèn)出這是貓,你只需要把它指向貓的類別,然后讓它去識別就可以了。
雖然故意讓AI犯錯似乎是一件無聊且瑣碎的事情,但這都是有意義的。AI如果在實際運用中出現(xiàn)錯誤,那可能會造成無法彌補的嚴(yán)重后果。比如自動駕駛的汽車將行人誤認(rèn)為紅綠燈,就可能會引發(fā)不幸的交通事故。
互聯(lián)網(wǎng)也需要AI的識別功能幫忙鑒別圖像內(nèi)容。Facebook就曾披露它如何使用AI工具完成內(nèi)容審核。Facebook的自動化AI工具主要表現(xiàn)在裸體、暴力、恐怖內(nèi)容、仇恨言論,垃圾郵件,虛假賬戶和自殺預(yù)防七個方面。
如果社交網(wǎng)絡(luò)中裸露和暴力的圖片能成功被AI技術(shù)檢測,AI就能為圖片中的敏感元素進行標(biāo)記,進行更高效地處理和提示。而這些圖片如果交給人工進行審核,那不僅效率低,也會給審核人員帶來更多的工作量和精神壓力。
扎克伯格自己也說過“建立一個可以檢測具體某個不良信息的人工智能系統(tǒng),要比確定什么是令人不適的語言要容易的多?!?/p>
AI進行圖像識別就像在盲文上進行閱讀,圖像中的元素是一個個信息點,最終要通過信息點做出一個最為合理的猜測。這也像一個管道系統(tǒng),不同的管道連接最終形成了系統(tǒng)。這種方法讓AI在特定的圖像視覺處理上能輕易地超過人類。比如說在動植物物種的識別上,它就比我們更為專業(yè)。
但部分的成功還不能讓人對AI圖像識別充滿信心,約克大學(xué)研究員Amir Rosenfeld就表示“有各種各樣奇怪的事情發(fā)生,告訴我們目前的物體檢測系統(tǒng)是多么脆弱。”
這些“自然對抗性案例”的存在顯示了現(xiàn)有的 AI 還沒那么智能,它們的“深度學(xué)習(xí)”也需要更長的時間、更多的訓(xùn)練。
-
人工智能
+關(guān)注
關(guān)注
1819文章
50284瀏覽量
266809 -
自動駕駛
+關(guān)注
關(guān)注
794文章
14972瀏覽量
181322
原文標(biāo)題:你能識別這些圖片嗎?假如能,就證明你比人工智能聰明得多了。
文章出處:【微信號:luomajqrxt,微信公眾號:機器人學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
人工智能測試開發(fā)訓(xùn)練營2期
機器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性
定華雷達儀表學(xué)堂:雷達液位計有些什么好處?
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!
關(guān)于人工智能處理器的11個誤解
人工智能也會犯錯,有些錯誤在我們看來甚至有些“低級”
評論