哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

麻省理工學院新研究:讓機器人像人一樣有觸覺

天津機器人 ? 來源:天津機器人 ? 作者:智東西 ? 2021-01-26 15:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

f1a55330-5f7a-11eb-8b86-12bb97331649.png

智東西1月20日消息,近日,麻省理工學院(MIT)的研究人員進行了一項研究,旨在在機器人身上,復制人類觸摸獲取物體位置的能力。

研究人員將他們的論文預先發(fā)表在arXiv上,強調(diào)他們的研發(fā)成果可以讓機器人僅通過觸摸,而無需通過視覺和音頻處理,就能與其周圍環(huán)境進行交互,甚至可以在第一次接觸物體時對物體進行準確定位。

一、不依賴外部傳感方式,僅通過模擬訓練實現(xiàn)物體行為

研究人員之一Maria Bauza 在接受外媒Tech Xplore采訪時說:“我們此次研究的方法相比以往的觸覺定位工作取得了重要飛躍,因為我們可以不依賴例如視覺等其他任何外部傳感方式,也不依賴以前收集的與被操縱物體相關(guān)的觸覺數(shù)據(jù)?!?/p>

“相反,我們的技術(shù)是直接在模擬中訓練出來的,機器人能在第一次觸摸時就定位物體,這在機器人領(lǐng)域的應用中是至關(guān)重要的?!?/p>

在現(xiàn)實情況中,數(shù)據(jù)收集價格高昂,甚至有些數(shù)據(jù)無法被收集。而由于這個新技術(shù)是經(jīng)過模擬訓練的,也就是說,無需真實的機器人訓練,只需在計算機上訓練就可完成操作。因此,Bauza和她的同事在設計的時候就不用進行復雜的數(shù)據(jù)收集工作了。

研究人員最初開發(fā)了一個框架,模擬給定物體和觸覺傳感器之間的接觸,從而假設機器人可以訪問與其交互的物體的數(shù)據(jù)(例如,物體的三維形狀、特征等)。這些接觸行為以深度圖像的形式呈現(xiàn),它顯示了物體擠壓觸覺傳感器的程度。

隨后,Bauza和她的同事們使用最先進的機器學習技術(shù)進行計算機視覺和表示學習(representation learning),觀察機器人收集的真實觸覺數(shù)據(jù),并將這些數(shù)據(jù)與模擬生成的觸點數(shù)據(jù)集進行匹配。

▲研究人員使用的觸覺傳感器

Bauza說:“我們的方法是,將表示為深度圖像的接觸編碼到一個嵌入式空間中,這極大地簡化了計算成本,使任務能夠?qū)崟r執(zhí)行?!?/p>

“在我們的工作中,我們在多接觸場景中對這一點進行了演示,其中在多個觸覺傳感器同時接觸一個物體的情況下,我們必須將所有觀察結(jié)果整合到對物體姿態(tài)的估計中?!?/p>

從本質(zhì)上講,這個研究小組設計的方法可以簡單基于物體的三維形狀來模擬接觸信息。因此,它不需要在仔細檢查物體時收集任何以前的觸覺數(shù)據(jù)。這使得該技術(shù)能夠通過機器人的觸覺傳感器,在它第一次接觸到物體時,就對物體產(chǎn)生姿態(tài)估計。

Bauza說:“我們意識到觸覺傳感具有很強的鑒別力,并可以產(chǎn)生高度精確的姿勢估計。視覺有時候會受到遮擋的影響,但觸覺不會。因此,如果一個機器人接觸到一個少見且獨特物體的某一部分,那么我們的算法可以輕易識別出機器人接觸的物體,從而識別物體的姿態(tài)。”

二、“多手指”感觸提高操作精度,適用工業(yè)領(lǐng)域

許多物體不同側(cè)面的觸感相似,而Bauza和她的同事開發(fā)的方法可以預測姿勢分布,而不止對單個姿態(tài)進行估計。這一特征非常特殊,與此前只收集單一姿態(tài)估計的目標姿態(tài)估計方法形成鮮明對比。此外,麻省理工學院研究小組的框架所預測的分布可以直接與外部信息整合,以進一步減少物體姿態(tài)的不確定性。

Bauza說:“值得注意的是,我們還觀察到,像用幾個手指接觸一個物體一樣同時進行多個接觸行為,可以很大程度上減少對物體姿勢判斷的不確定性。這證實了我們的預測,即在一個對象上添加接觸會限制其姿態(tài)并簡化姿態(tài)檢測過程?!?/p>

f36e6c56-5f7a-11eb-8b86-12bb97331649.png

▲方法運作流程:接觸→ 觸覺觀察→觸覺深度→匹配使用研究人員的最佳算法→結(jié)果姿勢

為了輔助人類進行日常活動,機器人必須能夠高精度、高可靠性地完成任務。由于對物體的操縱意味著機器人需要直接接觸物體,因此開發(fā)能有效使機器人進行觸覺傳感的技術(shù)至關(guān)重要。

另一位參與這一項目的研究人員Alberto Rodriguez在接受媒體采訪時說,觸覺能力最近受到了工業(yè)領(lǐng)域的極大關(guān)注,我們通過對三個因素的結(jié)合實現(xiàn)了觸覺能力技術(shù)的突破:

1、 使用具有高分辨率的小型攝像機,捕捉觸摸表面變形的狀態(tài),這一傳感技術(shù)成本較低。例如:GelSight 傳感。

2、 將上述第一點中提到的傳感技術(shù)與機器人手指進行結(jié)合。例如:GelSlim 手指。

3、 一種基于深度學習的計算框架,它可以有效處理高分辨率觸覺圖像,實現(xiàn)已知部位的觸覺定位。例如:本文提到的研究。

Rodriguez說:“這類技術(shù)正在逐漸成熟,行業(yè)正在看到自動化任務的價值。比如,在裝配自動化領(lǐng)域,觸摸任務的實施就對精確度有要求?!?/p>

這組研究人員設計的技術(shù),使機器人能實時估計他們正在操縱的物體的姿態(tài),而且精確度很高。這使工作人員有機會對機器人的動作或行為影響做出更準確的預測,從而提高機器人在操作任務中的表現(xiàn)。

這一研究或許能夠證明其在工業(yè)領(lǐng)域應用中的價值。在工業(yè)領(lǐng)域,制造商可以依此根據(jù)產(chǎn)品形狀的清晰模型組裝產(chǎn)品。

未來,研究人員計劃擴展他們的框架,使其同時包含有關(guān)物體的視覺信息。他們希望將現(xiàn)有的技術(shù)轉(zhuǎn)化為一個視覺-觸覺傳感系統(tǒng),可以更精準地估計物體的姿態(tài)。

此外,他們還將研發(fā)讓機器人進行精確拾取和放置操作的技術(shù)。他們的目標是,讓機器人能進行穩(wěn)定抓取任務的同時,還能幫助其進行感知,提高其觸覺定位能力。

結(jié)語:為機器人提供更多感官

視覺、音頻技術(shù)是機器人定位常用的方式,這次,MIT的研究人員從觸覺方面為機器人確認物體位置的方式提供了一個新的切口。

人類通過各種感官確認物體的形狀和位置,未來,機器人或許也能像人類一樣,通過眼睛鎖定,耳朵聽見,皮膚觸摸,鼻子嗅聞來準確鎖定物體位置、形狀及狀態(tài)。

責任編輯:xj

原文標題:MIT新研究:讓機器人像人一樣有觸覺,觸摸可識別姿態(tài)位置

文章出處:【微信公眾號:天津機器人】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    31381

    瀏覽量

    223525
  • 觸覺
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    9616

原文標題:MIT新研究:讓機器人像人一樣有觸覺,觸摸可識別姿態(tài)位置

文章出處:【微信號:tjrobot,微信公眾號:天津機器人】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    為什么說關(guān)節(jié)扭矩傳感器是高端機器人的“觸覺神經(jīng)”?

    機器人在每毫秒都能“感知”到自己被推、拉或碰到東西。 正是這種連續(xù)、精準的力覺反饋,機器人實現(xiàn)了三大關(guān)鍵能力: 1. 柔順控制:像人手一樣“順著來” 傳統(tǒng)
    發(fā)表于 04-17 17:27

    廣州團隊研制出機器人觸覺皮膚”

    機器人的發(fā)展日新月異,廣州團隊研制出機器人觸覺皮膚”!廣州團隊研制的亞毫米級雙模態(tài)觸覺傳感器陣列,是機器人
    的頭像 發(fā)表于 03-11 15:43 ?1604次閱讀

    從機械狗關(guān)節(jié)拆解看懂激光焊點里的硬核科技

    最近,篇關(guān)于拆解MITMiniCheetah(迷你獵豹)執(zhí)行器的文章在工程師圈子里熱傳。這只由麻省理工學院仿生機器人實驗室打造的機器狗,以其靈活的后空翻和高速奔跑能力驚艷世界,而其核
    的頭像 發(fā)表于 03-06 15:40 ?1676次閱讀
    從機械狗關(guān)節(jié)拆解看懂激光焊點里的硬核科技

    從講義到學院:錢學森1963年的“星際藍圖”與2026年的現(xiàn)實回響

    歷史的坐標:1961年的講臺與2026年的揭牌1961年秋,中國科學技術(shù)大學近代力學系的教室里,錢學森先生拿起了粉筆。在接下來的幾個月里,他將自己在美國加州理工學院麻省理工學院積累的深厚學識
    的頭像 發(fā)表于 01-29 15:21 ?1494次閱讀
    從講義到<b class='flag-5'>學院</b>:錢學森1963年的“星際藍圖”與2026年的現(xiàn)實回響

    東莞理工學院“小眼睛科技杯”第四屆集成電路設計與創(chuàng)新應用競賽圓滿落幕

    BASEDINNOVATION“小眼睛科技杯”集成電路設計與創(chuàng)新應用競賽2025年11月23日,東莞理工學院第四屆集成電路設計與創(chuàng)新應用競賽于學術(shù)會議中心圓滿落幕。本屆競賽由校團委、學生工作部
    的頭像 發(fā)表于 12-08 08:03 ?553次閱讀
    東莞<b class='flag-5'>理工學院</b>“小眼睛科技杯”第四屆集成電路設計與創(chuàng)新應用競賽圓滿落幕

    格羅方德與新加坡理工學院簽署諒解備忘錄

    2025年10月15日,格羅方德新加坡公司(GlobalFoundries Singapore,簡稱GFS)與新加坡理工學院(Singapore Polytechnic,簡稱SP)簽署了份諒解備忘錄,旨在就新加坡半導體行業(yè)的數(shù)字人才培養(yǎng)展開合作。
    的頭像 發(fā)表于 10-24 15:10 ?889次閱讀

    蘇黎世聯(lián)邦理工學院、西南交通大學:關(guān)于研究MXenes-環(huán)境生化傳感平臺新型材料

    近日, 蘇黎世聯(lián)邦理工學院王京課題組 聯(lián)合 西南交通大學趙志俊課題組 及 四川大學張傳芳課題組 ,在 高起點新刊Electron 發(fā)表了題為“MXenes: Emerging Materials
    的頭像 發(fā)表于 10-10 19:02 ?932次閱讀
    蘇黎世聯(lián)邦<b class='flag-5'>理工學院</b>、西南交通大學:關(guān)于<b class='flag-5'>研究</b>MXenes-環(huán)境生化傳感平臺新型材料

    Wolfspeed與紐約州立大學理工學院加強教育研究合作

    紐約州立大學理工學院(SUNY Poly)在 近日舉行的新聞發(fā)布會上宣布,任命兩名教職人員為 Wolfspeed 捐贈講席教授(Wolfspeed Endowed Chairs),標志著該校研究擴展的重要里程碑。
    的頭像 發(fā)表于 07-04 16:12 ?1015次閱讀

    【萬字長文】物聯(lián)網(wǎng)的激蕩二十年

    (InternetofThings)”。雖然業(yè)界致認為,1999年,麻省理工學院的KevinAshton首次提出”物聯(lián)網(wǎng)”這術(shù)語,但僅僅只是個理念,沒有成體系的解釋,也無法形成共
    的頭像 發(fā)表于 06-27 13:42 ?1705次閱讀
    【萬字長文】物聯(lián)網(wǎng)的激蕩二十年

    突破麻省理工學院技術(shù)壟斷,深圳傳感器公司帶來全新機器人觸覺傳感器技術(shù)

    了 最新發(fā)布的視觸覺傳感器 和五指靈巧手 “ICRA 2025是全球機器人與自動化領(lǐng)域的頂級國際學術(shù)會議,我們約了外國客商洽談訂單?!壁s在當?shù)貢r間大早,段江嘩擠出時間接受深圳特區(qū)報記者獨家采訪。他說,從實驗室走向產(chǎn)業(yè)化,戴盟
    的頭像 發(fā)表于 06-22 23:21 ?831次閱讀
    突破<b class='flag-5'>麻省理工學院</b>技術(shù)壟斷,深圳傳感器公司帶來全新<b class='flag-5'>機器人</b><b class='flag-5'>觸覺</b>傳感器技術(shù)

    南京工業(yè)大學:仿生觸覺傳感系統(tǒng)機器人擁有“人類指尖”般的細膩感知

    宏博士,聯(lián)合南開大學、復旦大學、金陵科技學院等單位眾多合作者,在《Advanced Materials》發(fā)表重磅研究成果,研發(fā)出種仿生紡織觸覺傳感器及系統(tǒng),首次在單
    的頭像 發(fā)表于 06-14 17:32 ?1022次閱讀
    南京工業(yè)大學:仿生<b class='flag-5'>觸覺</b>傳感系統(tǒng)<b class='flag-5'>讓</b><b class='flag-5'>機器人</b>擁有“人類指尖”般的細膩感知

    偉創(chuàng)力與麻省理工學院 (MIT) 就其全新的“新制造倡議”(INM) 達成戰(zhàn)略合作

    行業(yè)巨擘+全球頂級學府? 近日,偉創(chuàng)力與 麻省理工學院? (MIT) 就其 全新的“新制造倡議”(INM) 達成戰(zhàn)略合作 。作為INM行業(yè)聯(lián)盟的 創(chuàng)始成員 ,偉創(chuàng)力將在這項目中與MIT的研究
    的頭像 發(fā)表于 06-10 09:30 ?1299次閱讀

    麻省理工學院香港校友會代表團到訪華沿機器人

    近日,麻省理工學院香港校友會(MIT Club of Hong Kong)代表團40余人到訪華沿機器人總部,通過展廳參觀、技術(shù)交流與座談研討,深入了解國產(chǎn)機器人產(chǎn)業(yè)發(fā)展現(xiàn)狀,并就“機器人
    的頭像 發(fā)表于 05-30 09:26 ?1159次閱讀

    美國加州理工學院研究量子傳感技術(shù)可實現(xiàn)粒子時空高精度探測

    《儀器儀表期刊》發(fā)表。 ? 答案可能就在量子傳感器中。來自美國能源部費米國家加速器實驗室(費米實驗室)、加州理工學院、美國國家航空航天局噴氣推進實驗室(由加州理工學院管理)和其他合作機構(gòu)的研究人員開發(fā)出了
    的頭像 發(fā)表于 05-11 16:33 ?831次閱讀

    佐治亞理工學院:毛囊級傳感器!研發(fā)可運動無感佩戴的AR控制傳感器

    ? 佐治亞理工學院研究人員開發(fā)了種幾乎難以察覺的微結(jié)構(gòu)大腦傳感器,有望使腦機接口(BCI)技術(shù)真正融入日常生活。 傳統(tǒng)BCI系統(tǒng)依賴貼附在頭皮上的電極和凝膠,存在設備龐大、使用不適等問題,而侵入
    的頭像 發(fā)表于 04-24 18:28 ?901次閱讀
    佐治亞<b class='flag-5'>理工學院</b>:毛囊級傳感器!研發(fā)可運動無感佩戴的AR控制傳感器
    洛隆县| 大埔区| 芦溪县| 封丘县| 汉寿县| 海阳市| 西平县| 如皋市| 开鲁县| 和政县| 盈江县| 沐川县| 大悟县| 安丘市| 长丰县| 定兴县| 富宁县| 英山县| 穆棱市| 民丰县| 惠东县| 怀远县| 迭部县| 栾川县| 灵石县| 芦山县| 上饶市| 新闻| 姚安县| 济宁市| 邮箱| 安陆市| 平谷区| 茶陵县| 阳曲县| 城口县| 连云港市| 黄陵县| 永春县| 屏东市| 郯城县|