久久精品精选,精品九九视频,www久久只有这里有精品,亚洲熟女乱色综合一区
    分享

    推理爆拉SOTA 2000倍!FSGS:稀疏視角的實時高仿真圖像合成框架(ECCV'24)

     doctorwangfovn 2024-08-13 發(fā)布于山東
    第一時間獲取3D視覺干貨

    >>點擊進入→3D視覺之心技術(shù)交流群

    擺脫稀疏輸入的限制

    從一組視角集合中進行新視角合成(NVS),盡管在照片級真實感渲染方面取得了成效,但對密集支持視角的要求阻礙了其實用性。先前的研究通過利用神經(jīng)輻射場(NeRF),一種能夠捕捉場景細節(jié)的強大隱式3D表示,結(jié)合體積渲染技術(shù),提出了減少視角需求的方法。它們通常會導(dǎo)致巨大的計算需求,進而對實時性能產(chǎn)生不利影響。在實現(xiàn)實時渲染速度和理想的照片級真實感、高分辨率輸出質(zhì)量之間仍存在明顯差距。

    本文介紹的FSGS(Few-Shot Gaussian Splatting)[1]研究了在稀疏輸入上部署3D-GS的挑戰(zhàn)。3D-GS的有效性關(guān)鍵在于稠密化過程,它將稀疏的初始點云轉(zhuǎn)變?yōu)楦敿毜?D環(huán)境表示。然而,由空間梯度決定的新高斯的放置往往噪聲較大且代表性不足,特別是在稀疏視角場景中。此外,在視角數(shù)量有限的情況下依賴光度損失通常會導(dǎo)致紋理過于平滑。

    圖片

    為了解決這些問題,F(xiàn)SGS引入了基于鄰近性的高斯解池,一種專門針對稀疏輸入的新策略。

    • 該方法通過在現(xiàn)有高斯之間插入新高斯來增強高斯表示,基于鄰近性得分進行戰(zhàn)略性放置,結(jié)合從現(xiàn)有高斯中獲取的觀測初始化,大大改善了場景表示,提高了高斯密度。
    • 提倡通過生成不在訓(xùn)練期間存在的虛擬相機來進行視角增強,以在稀疏設(shè)置中施加額外約束。結(jié)合單目深度先驗,有助于正則化新高斯,推動它們向合理的解決方案發(fā)展,同時增強紋理細節(jié),對于準(zhǔn)確的相對位置至關(guān)重要。
    • FSGS在渲染質(zhì)量方面設(shè)立了新的基準(zhǔn),并以實時速度(203 FPS)運行,使其適用于實際應(yīng)用。即使使用更少的高斯也能超越3D-GS,提升了渲染場景的效率和質(zhì)量。

    具體方法

    概述

    如圖2所示。FSGS處理從靜態(tài)場景捕獲的一組有限圖像。使用結(jié)構(gòu)化運動(SfM)軟件COLMAP導(dǎo)出相機姿態(tài)和點云。3D高斯的初始化基于稀疏點云,包含顏色、位置以及形狀和不透明度的預(yù)定義轉(zhuǎn)換規(guī)則等屬性。通過實現(xiàn)基于鄰近性的高斯解池策略,解決了極其稀疏點的問題。該方法通過評估現(xiàn)有高斯之間的鄰近性并在最具代表性的區(qū)域放置新的高斯,從而密集化高斯并填充空白區(qū)域,增強了場景細節(jié)。為了減輕標(biāo)準(zhǔn)3D-GS在稀疏視角數(shù)據(jù)下的過擬合問題,F(xiàn)SGS引入了圍繞訓(xùn)練相機生成偽相機視點的方法。該方法與幾何正則化相結(jié)合,引導(dǎo)模型準(zhǔn)確重建場景的幾何結(jié)構(gòu)。圖片

    問題表述

    3D高斯?jié)姙R(3D-GS)通過一組3D高斯來顯式表示3D場景,具有如下屬性:位置向量 和協(xié)方差矩陣。每個高斯按照3D高斯分布影響3D空間中的點

    圖片

    為了確保是半正定的并且具有實際物理意義,通過進行分解,其中是表示旋轉(zhuǎn)的四元數(shù)矩陣,是縮放矩陣。

    每個高斯還存儲一個不透明度對數(shù)值,以及由個球諧系數(shù)(SH系數(shù))表示的外觀特征:。其中是度數(shù)為D的SH系數(shù)的數(shù)量。為了渲染2D圖像,3D-GS對所有有助于像素的高斯進行排序,并使用以下函數(shù)混合重疊的高斯:

    圖片

    其中是由第個高斯的SH系數(shù)計算得出的顏色。Σ' ∈ R^^{2x2}Σ'Σ' = JWΣW^TJ^TJW$是視圖變換矩陣。3D-GS中引入了一種啟發(fā)式高斯密集化方案,其中高斯基于視圖空間位置梯度的平均幅度超過閾值來進行密集化。雖然這種方法在使用全面的SfM點進行初始化時是有效的,但在稀疏視角輸入圖像的情況下,它不足以完全覆蓋整個場景。此外,一些高斯趨向于增長為極大的體積,導(dǎo)致結(jié)果在訓(xùn)練視角上過擬合,對新視角的泛化能力較差(見圖3)。

    圖片

    然而,3D-GS是從SfM點初始化的,其性能嚴(yán)重依賴于初始化點的數(shù)量和準(zhǔn)確性。盡管后續(xù)的高斯密集化可以在欠重建和過重建的區(qū)域增加高斯數(shù)量,但在少樣本設(shè)置下,這種直接策略難以滿足需求:初始化不足導(dǎo)致過于平滑的結(jié)果,并且在訓(xùn)練視角上過擬合。

    基于鄰近性的高斯解池

    場景建模的粒度在很大程度上取決于表示場景的3D高斯的質(zhì)量;因此,解決有限的3D場景覆蓋問題對于有效的稀疏視角建模至關(guān)重要。

    鄰近性評分和圖構(gòu)建

    在高斯優(yōu)化過程中,我們構(gòu)建了一個有向圖,稱為鄰近圖,通過計算鄰近性(即歐幾里得距離)將每個現(xiàn)有高斯與其最近的K個鄰居連接起來。具體來說,我們將起始高斯稱為“源”高斯,而將尾部的高斯稱為“目標(biāo)”高斯,這是“源”高斯的K個鄰居之一。這些“目標(biāo)”高斯通過以下規(guī)則確定:

    圖片

    這里,通過公式計算,表示高斯和高斯的中心之間的歐幾里得距離。分配給高斯的鄰近性評分計算為其個最近鄰居的平均距離:

    圖片

    鄰近圖在優(yōu)化過程中隨著密集化或修剪過程進行更新。實際上將設(shè)置為3。

    高斯解池

    提出了基于鄰近圖和每個高斯的鄰近性評分來解池高斯。具體來說,如果高斯的鄰近性評分超過閾值,將在每條連接“源”和“目標(biāo)”高斯的邊的中心生成一個新的高斯,如圖4所示。新創(chuàng)建的高斯的縮放和不透明度屬性設(shè)置為匹配“目標(biāo)”高斯的屬性。同時,其他屬性如旋轉(zhuǎn)和SH系數(shù)初始化為零。高斯解池策略鼓勵新密集化的高斯分布在代表性位置周圍,并在優(yōu)化過程中逐步填補觀測間隙。

    圖片

    高斯優(yōu)化的幾何引導(dǎo)

    通過高斯解池實現(xiàn)密集覆蓋后,我們應(yīng)用具有稀疏視角線索的光度損失來優(yōu)化高斯。然而,在稀疏視角設(shè)置中,不足的視差限制了3D高斯優(yōu)化的全局一致方向,容易在訓(xùn)練視角上過擬合,并且在新視角上的泛化能力較差。為了在優(yōu)化中引入更多的正則化,我們提出創(chuàng)建一些訓(xùn)練中未見過的虛擬相機,并將像素級的幾何對應(yīng)作為額外的正則化。

    合成偽視角

    為了應(yīng)對稀疏訓(xùn)練視角過擬合的固有問題,我們采用未觀察到的(偽)視角增強,通過2D先驗?zāi)P蛷膱鼍爸幸敫嘞闰炛R。合成視角是從歐幾里得空間中兩個最近的訓(xùn)練視角中采樣,計算平均相機方向,并在它們之間插值出一個虛擬視角。隨機噪聲應(yīng)用于相機位置的3個自由度(3DoF),如公式5所示,然后渲染圖像。

    圖片

    其中,表示相機位置,而q是從兩個相機中平均得到的四元數(shù)表示的旋轉(zhuǎn)。通過在線合成偽視角,可以實現(xiàn)動態(tài)幾何更新,因為3D高斯將逐步更新,減少過擬合的風(fēng)險。

    從單目深度中注入幾何一致性

    使用預(yù)訓(xùn)練的Dense Prediction Transformer(DPT)在訓(xùn)練和偽視角上生成單目深度圖,DPT使用140萬圖像-深度對進行訓(xùn)練,是一個便捷且有效的選擇。為了減輕真實場景尺度和估計深度之間的尺度模糊性,在估計和渲染的深度圖上引入了一個放松的相對損失,皮爾遜相關(guān)系數(shù)。它測量2D深度圖之間的分布差異,遵循以下公式:

    圖片

    這個放松的約束允許在不受絕對深度值不一致性影響的情況下對齊深度結(jié)構(gòu)。

    可微分深度光柵化

    為了實現(xiàn)從深度先驗到引導(dǎo)高斯訓(xùn)練的反向傳播,我們實現(xiàn)了一個可微分深度光柵化器,允許接收渲染深度和估計深度之間的誤差信號。在3D-GS中使用alpha混合渲染進行深度光柵化,其中有助于像素的有序高斯的z-buffer被累積以生成深度值:

    圖片

    其中表示第個高斯的z-buffer,與公式2中的相同。這個可微分實現(xiàn)支持深度相關(guān)損失。

    優(yōu)化

    綜合所有方法,可以總結(jié)訓(xùn)練損失為:

    圖片

    其中,L1和代表預(yù)測圖像與真實圖像C之間的光度損失項。表示在訓(xùn)練視角和合成偽視角上的幾何正則化項。通過網(wǎng)格搜索,將分別設(shè)置為0.8、0.2、0.05。偽視角采樣在2000次迭代后啟用,以確保高斯能夠大致代表場景。

    實驗效果

    圖片
    圖片
    圖片
    圖片
    圖片
    圖片
    圖片
    圖片

    總結(jié)一下

    FSGS是一種實時的少視角新視圖合成框架,即使在視角重疊不足的情況下也能工作。FSGS從極度稀疏的點云開始,采用基于點的表示,并通過測量每個高斯點與其鄰居的鄰近性來提出一種有效的鄰近性引導(dǎo)高斯解池技術(shù)。通過生成偽視角和使用單目相對深度對應(yīng)關(guān)系來引導(dǎo)擴展的場景幾何,F(xiàn)SGS可以:

    • 緩解少視角3D-GS中的過擬合問題
    • 使用少至三張圖像生成高仿真圖像,并以超過200FPS的速度進行推理,為實時渲染和更具成本效益的捕捉方法提供了新的途徑。

    局限性:無法推廣到訓(xùn)練期間未觀察到的遮擋視角。

    參考

    [1] FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting

    投稿作者為『3D視覺之心知識星球』特邀嘉賓,歡迎加入交流!

    【3D視覺之心】技術(shù)交流群

      本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
      轉(zhuǎn)藏 分享 獻花(0

      0條評論

      發(fā)表

      請遵守用戶 評論公約

      類似文章 更多

      主站蜘蛛池模板: 国产精品久久久久AV福利动漫| 国产日产欧产精品精品| 午夜男女爽爽影院免费视频下载| 久久久久高潮综合影院| WWW夜片内射视频在观看视频| 人妻一区二区三区三区| 国产裸体XXXX视频在线播放| 日本欧美大码a在线观看| 久在线精品视频线观看| 激情内射亚洲一区二区三区爱妻| 漂亮人妻中文字幕丝袜| 国产一精品一AV一免费爽爽 | 中文字幕精品人妻丝袜| 国产综合久久亚洲综合| 94人妻少妇偷人精品| 国产在线无码视频一区二区三区| 日本深夜福利在线观看| 欧美老人巨大XXXX做受视频| 亚洲精品成人片在线观看精品字幕| 永久免费无码成人网站| 亚洲色婷婷综合开心网| 欧美日韩一区二区综合| 亚洲精品日韩精品久久| 欧美老熟妇XB水多毛多| AV极品无码专区亚洲AV| 国产精品毛片在线完整版SAB| 巨茎中出肉欲人妻在线视频| 亚洲天堂精品一区二区| 亚洲国产精品一区二区WWW| 欧美熟妇乱子伦XX视频| 国内精品久久人妻无码不卡| 亚洲AV无码久久久久网站蜜桃 | 国产99在线 | 免费| av中文字幕一区二区| 亚洲日韩精品欧美一区二区| 国产一卡2卡3卡4卡网站精品| 99久久er热在这里只有精品99| 丰满人妻被黑人猛烈进入| 国产一卡2卡3卡4卡网站精品 | 人妻系列无码专区69影院| 好深好湿好硬顶到了好爽|