2月17日新媒體專電 《俄羅斯報(bào)》近日發(fā)表文章稱,美國(guó)斯坦福大學(xué)學(xué)者邁克爾科辛斯基教授研發(fā)出了一種可根據(jù)人臉表情判斷其信仰傾向的人工智能技術(shù)。
報(bào)道稱,科辛斯基首先使用人臉照片庫來訓(xùn)練神經(jīng)網(wǎng)絡(luò),庫中包括大量信仰明確的人物。然后,他將這一神經(jīng)網(wǎng)絡(luò)投入使用,讓其根據(jù)數(shù)百萬人的照片來將他們區(qū)分為自由派和保守分子。人工智能的識(shí)別正確率達(dá)到了72%。這一結(jié)果似乎并不太出色,但人的判斷力更糟糕,正確率只有55%,幾乎和拋硬幣差不多。
有趣的是,科辛斯基還試圖搞清楚神經(jīng)網(wǎng)絡(luò)的工作原理。他檢查了照片中的多項(xiàng)特征和因素,如面部汗毛的顏色、目光是否直視鏡頭以及各種表情,但發(fā)現(xiàn)這些因素都不起作用。這也就是說,神經(jīng)網(wǎng)絡(luò)找到了目前尚不為人知的其他某些特征。
值得指出的是,科辛斯基的神經(jīng)網(wǎng)絡(luò)幾年前已能通過人臉照片來確定人的性取向。在僅有一張照片可供識(shí)別的情況下,它對(duì)男性性取向的判斷正確率達(dá)到81%,對(duì)女性的判斷正確率為74%。如果有5張照片可供識(shí)別,它對(duì)男女性取向的判斷正確率將分別提高到91%和83%。如果由人根據(jù)單張照片來進(jìn)行判斷的話,他對(duì)男女性取向的判斷正確率分別只有61%和54%,這與過去的研究結(jié)果是一致的。
當(dāng)時(shí),科辛斯基的研究受到了同行們的嚴(yán)厲批評(píng),他們認(rèn)為這項(xiàng)技術(shù)可能危及他人的安全和隱私。但這項(xiàng)技術(shù)的研發(fā)者反駁說,自己沒有創(chuàng)造侵犯?jìng)€(gè)人隱私的工具,而是展示了“基本和廣泛使用的方法可能以何種方式威脅私人生活”。也就是說,他們對(duì)人工智能中包含的危險(xiǎn)發(fā)出了警告。
科辛斯基已向我們展示了其中一個(gè)危險(xiǎn)。神經(jīng)網(wǎng)絡(luò)把人變得透明化了:它能在人身上發(fā)現(xiàn)對(duì)方自己可能都不知道的東西。
許多學(xué)者表示,必須制定有關(guān)人工智能使用的法律規(guī)范。但要把已被放出來的精靈重新裝回瓶子里是難以想象的。
責(zé)任編輯:YYX
-
人工智能
+關(guān)注
關(guān)注
1819文章
50284瀏覽量
266809
發(fā)布評(píng)論請(qǐng)先 登錄
如何校準(zhǔn)斯坦福鎖相放大器的增益
斯坦福鎖相放大器SR830參考頻率設(shè)置方法詳解
云知聲CEO黃偉博士做客斯坦福“與AI同行”系列講座
斯坦福鎖相放大器與塞恩鎖相放大器的選型對(duì)比分析
微軟與新思科技分享智能體人工智能技術(shù)的行業(yè)影響
航天宏圖人工智能技術(shù)深度賦能社會(huì)治理現(xiàn)代化
挖到寶了!人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器!
斯坦福(Stanford)鎖相放大器故障修復(fù)
人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢(shì)
斯坦福SR530鎖相放大器技術(shù)手冊(cè)
斯坦福SR445A科研級(jí)前置放大器安裝、操作與維護(hù)指南
斯坦福SR830鎖相放大器低量程報(bào)錯(cuò)維修步驟詳解
中科曙光亮相2025全球人工智能技術(shù)大會(huì)
斯坦福DG535脈沖發(fā)生器無法啟動(dòng)故障診斷與維修方案
斯坦福研發(fā)出可根據(jù)表情判斷其信仰的人工智能技術(shù)
評(píng)論