哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NeuralLift-360:將野外的2D照片提升為3D物體

3D視覺工坊 ? 來源:泡泡機(jī)器人SLAM ? 2023-04-16 10:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要

虛擬現(xiàn)實(shí)和增強(qiáng)現(xiàn)實(shí)(XR)帶來了對3D內(nèi)容生成的不斷增長需求。然而,創(chuàng)建高質(zhì)量的3D內(nèi)容需要人類專家進(jìn)行繁瑣的工作。在本文中,我們研究了將單個圖像提升為3D對象的具有挑戰(zhàn)性的任務(wù),并首次展示了能夠生成與給定參考圖像相對應(yīng)的具有360°視圖的可信3D對象。通過條件化參考圖像,我們的模型可以滿足從圖像合成物體新視角的永恒好奇心。我們提出了NeuralLift-360,一種新穎框架,利用深度感知神經(jīng)輻射場生成可信3D對象,并通過CLIP引導(dǎo)擴(kuò)散先驗(yàn)學(xué)習(xí)概率驅(qū)動3D提升,并通過比例不變深度排名損失減輕深度誤差。我們在真實(shí)和合成圖像上進(jìn)行了全面實(shí)驗(yàn),在這些實(shí)驗(yàn)中,NeuralLift-360優(yōu)于當(dāng)前最先進(jìn)方法。

主要貢獻(xiàn)

? 針對野外的單張圖片,我們展示了將其提升到3D的有前景的結(jié)果。我們使用NeRF作為有效的場景表示,并整合來自擴(kuò)散模型的先驗(yàn)知識。

? 我們提出了一種以CLIP為引導(dǎo)的采樣策略,有效地將擴(kuò)散模型的先驗(yàn)知識與參考圖像結(jié)合起來。

? 當(dāng)參考圖像難以精確描述時,我們在保持其生成多樣內(nèi)容以指導(dǎo)NeRF訓(xùn)練的能力的同時,對單張圖像進(jìn)行擴(kuò)散模型的微調(diào)。

? 我們引入了一種使用排名信息的尺度不變深度監(jiān)督。這種設(shè)計(jì)減輕了對準(zhǔn)確多視角一致深度估計(jì)的需求,并擴(kuò)大了我們算法的應(yīng)用范圍。

主要方法

74b2a322-dbb6-11ed-bfe3-dac502259ad0.png

1.從單個2D圖像中生成3D點(diǎn)云:首先,使用一個預(yù)訓(xùn)練的2D圖像到3D點(diǎn)云模型來生成初始點(diǎn)云。然后,使用一個深度感知神經(jīng)輻射場來對點(diǎn)云進(jìn)行細(xì)化和修正。具體地,該神經(jīng)輻射場將每個點(diǎn)的深度值作為輸入,并輸出一個向量場,該向量場將每個點(diǎn)移動到其正確的位置。

2.從3D點(diǎn)云中生成可渲染的3D網(wǎng)格:使用一個基于深度學(xué)習(xí)的方法來將點(diǎn)云轉(zhuǎn)換為可渲染的3D網(wǎng)格。具體地,該方法使用一個編碼器網(wǎng)絡(luò)將3D點(diǎn)云編碼為特征向量,并使用一個解碼器網(wǎng)絡(luò)將特征向量解碼為可渲染的3D網(wǎng)格。

3.從可渲染的3D網(wǎng)格中生成360°視圖:使用一個基于深度學(xué)習(xí)的方法來生成與給定參考圖像相對應(yīng)的具有360°視圖的可信3D對象。具體地,該方法使用一個編碼器網(wǎng)絡(luò)將參考圖像編碼為特征向量,并使用一個解碼器網(wǎng)絡(luò)將特征向量解碼為360°視圖。

4.使用CLIP引導(dǎo)擴(kuò)散先驗(yàn)學(xué)習(xí)概率驅(qū)動3D提升:使用一個基于擴(kuò)散的方法來生成3D對象,并使用CLIP模型來指導(dǎo)擴(kuò)散過程。具體地,該方法使用一個初始的3D對象,并通過多次迭代來擴(kuò)散該對象。在每次迭代中,使用CLIP模型來計(jì)算當(dāng)前3D對象與參考圖像之間的相似度,并將相似度作為概率分布來指導(dǎo)擴(kuò)散過程。

5.使用比例不變深度排名損失減輕深度誤差:使用一個比例不變深度排名損失來訓(xùn)練模型,以減輕深度誤差。具體地,該損失函數(shù)將每個像素的深度值與其在圖像中的排名相關(guān)聯(lián),并使用比例不變的方式來計(jì)算損失。這種方法可以減輕深度誤差,并提高模型的性能。

主要結(jié)果

74d99612-dbb6-11ed-bfe3-dac502259ad0.png

74e515aa-dbb6-11ed-bfe3-dac502259ad0.png

74f6fe46-dbb6-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    4007

    瀏覽量

    143275
  • 網(wǎng)格
    +關(guān)注

    關(guān)注

    0

    文章

    152

    瀏覽量

    16650
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5603

    瀏覽量

    124600

原文標(biāo)題:NeuralLift-360:將野外的2D照片提升為3D物體

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    為什么3D2D模型不能相互轉(zhuǎn)換?

    AD17.1.5軟件,3D2D模型不能相互轉(zhuǎn)換,按3可以進(jìn)入3D模型,按2不可以進(jìn)入2D模型,
    發(fā)表于 09-20 05:35

    如何促使2D3D視覺檢測的性能成倍提升

    本文介紹的三個應(yīng)用案例展示了業(yè)界上先進(jìn)的機(jī)器視覺軟件和及其圖像預(yù)處理技術(shù)如何促使2D3D視覺檢測的性能成倍提升。
    發(fā)表于 02-22 06:56

    視覺處理,2d照片轉(zhuǎn)3d模型

    首先,太陽高度是恒定的。 照片每像素的亮度可求。我們只需要求出太陽與眼睛到物體的夾角就能求出3d模型。 最多就是各種物質(zhì)的反射率。 英偉達(dá)的oir芯片就是做汽車視覺的,大家去取取經(jīng)。 有時,2
    發(fā)表于 05-21 17:13

    2D3D視頻自動轉(zhuǎn)換系統(tǒng)

    研究和實(shí)現(xiàn)了一個基于OMAP3530的2D3D視頻自動轉(zhuǎn)換系統(tǒng),重點(diǎn)研究深度圖獲取和深度信息渲染等主要核心技術(shù)及其實(shí)現(xiàn)。該系統(tǒng)利用OMAP3530其特有的雙核結(jié)構(gòu),進(jìn)行系統(tǒng)優(yōu)化:由其ARM處理器
    發(fā)表于 03-06 14:20 ?1次下載
    <b class='flag-5'>2D</b>到<b class='flag-5'>3D</b>視頻自動轉(zhuǎn)換系統(tǒng)

    適用于顯示屏的2D多點(diǎn)觸摸與3D手勢模塊

    本視頻展示結(jié)合多點(diǎn)觸摸與3D手勢模塊的Microchip顯示解決方案。支持2D/3D功能的顯示屏是Microchip基于GestIC?技術(shù)的最新解決方案。顯示屏上結(jié)合了
    的頭像 發(fā)表于 06-06 02:45 ?6196次閱讀

    如何把OpenGL中3D坐標(biāo)轉(zhuǎn)換成2D坐標(biāo)

    在OpenGL中,一切事物都在3D空間中,但我們的屏幕坐標(biāo)確實(shí)2D像素?cái)?shù)組,OpenGL大部分工作就是把3D坐標(biāo)轉(zhuǎn)換成適應(yīng)屏幕的2D像素。3D
    的頭像 發(fā)表于 07-09 10:40 ?9310次閱讀

    Bigscreen與派拉蒙影業(yè)合作 2D3D電影引入VR影院中

    在2019年12月,VR社交平臺Bigscreen宣布與派拉蒙影業(yè)合作,建立具有開創(chuàng)性的新合作伙伴關(guān)系,2D3D電影引入VR影院中。在第一個月中,成千上萬的用戶進(jìn)入VR世界,與來自世界各地的影迷一起觀看電影如《奪寶奇兵4:水
    發(fā)表于 01-13 14:11 ?2001次閱讀

    3D 機(jī)器視覺為什么逐步取代 2D 識別技術(shù)?

    不難判斷,在此趨勢下,3D 機(jī)器視覺面臨較快的增長趨勢,3D 視覺未來逐步取代 2D 識別技術(shù),在許多“痛點(diǎn)型應(yīng)用場景”中大顯身手,發(fā)展
    的頭像 發(fā)表于 08-21 10:33 ?5885次閱讀

    阿里研發(fā)全新3D AI算法,2D圖片搜出3D模型

    AI技術(shù)的研究正在從2D走向更高難度的3D。12月3日,記者獲悉,阿里技術(shù)團(tuán)隊(duì)研發(fā)了全新3D AI算法,可基于2D圖片精準(zhǔn)搜索出相應(yīng)的
    的頭像 發(fā)表于 12-04 15:49 ?4616次閱讀

    3d人臉識別和2d人臉識別的區(qū)別

    首先是3d人臉識別和2d人臉識別圖像數(shù)據(jù)獲取不同。3D人臉識別是以3D攝像頭立體成像,而2D是以2D
    發(fā)表于 02-05 16:00 ?5.4w次閱讀

    探討一下2D3D拓?fù)浣^緣體

    這樣的物理規(guī)范,具有很高的普適性,applicable 到所有維度空間。對二維 2D 拓?fù)浣^緣體 (2D - TI) 和三維 3D 拓?fù)浣^緣體 (3D - TI),其體 - 邊對應(yīng)性由
    的頭像 發(fā)表于 11-23 10:23 ?4803次閱讀

    2D/3D圖表和圖形添加到WindowsForms應(yīng)用程序中

    ? 2D/3D圖表和圖形添加到WindowsForms應(yīng)用程序中 包括您可能需要的所有功能,并以100%托管代碼編寫。很好地集成到儀表板和商業(yè)智能軟件中。由響應(yīng)迅速的支持團(tuán)隊(duì)提供支持。 14種主要
    的頭像 發(fā)表于 06-15 11:45 ?6635次閱讀

    2D3D視覺技術(shù)的比較

    作為一個多年經(jīng)驗(yàn)的機(jī)器視覺工程師,我詳細(xì)介紹2D3D視覺技術(shù)的不同特點(diǎn)、應(yīng)用場景以及它們能夠解決的問題。在這個領(lǐng)域內(nèi),2D3D視覺技術(shù)
    的頭像 發(fā)表于 12-21 09:19 ?3109次閱讀

    一文了解3D視覺和2D視覺的區(qū)別

    一文了解3D視覺和2D視覺的區(qū)別 3D視覺和2D視覺是兩種不同的視覺模式,其區(qū)別主要體現(xiàn)在立體感、深度感和逼真度上。本文詳細(xì)闡述這些區(qū)別,
    的頭像 發(fā)表于 12-25 11:15 ?5494次閱讀

    2D、2.5D3D封裝技術(shù)的區(qū)別與應(yīng)用解析

    半導(dǎo)體封裝技術(shù)的發(fā)展始終遵循著摩爾定律的延伸與超越。當(dāng)制程工藝逼近物理極限,先進(jìn)封裝技術(shù)成為延續(xù)芯片性能提升的關(guān)鍵路徑。本文將從技術(shù)原理、典型結(jié)構(gòu)和應(yīng)用場景三個維度,系統(tǒng)剖析2D、2.5D3
    的頭像 發(fā)表于 01-15 07:40 ?1090次閱讀
    <b class='flag-5'>2D</b>、2.5<b class='flag-5'>D</b>與<b class='flag-5'>3D</b>封裝技術(shù)的區(qū)別與應(yīng)用解析
    电白县| 婺源县| 平江县| 邵东县| 汝南县| 根河市| 尼玛县| 濉溪县| 密云县| 浦县| 双鸭山市| 天镇县| 南华县| 伊春市| 岫岩| 巨野县| 保德县| 桂林市| 巴彦淖尔市| 顺昌县| 南木林县| 信宜市| 洛扎县| 宁武县| 五河县| 兴安县| 黄龙县| 深州市| 界首市| 潼南县| 且末县| 娄烦县| 象山县| 蓬莱市| 安仁县| 白玉县| 临夏县| 马公市| 准格尔旗| 五大连池市| 会东县|