天堂中文最新版,果冻传媒在线观看视频,AA区一区二区三无码精片,欧美折磨另类系列sm

時代焦點網(wǎng) - 專業(yè)財經(jīng)新聞門戶
當前位置: 時代焦點網(wǎng) -> 熱點

只用一張圖+相機走位,AI就能腦補周圍環(huán)境:通通都是高保真效果

發(fā)布時間:2022-04-07 18:28   來源:IT之家   閱讀量:13739   

站在門口看一眼,AI 就能腦補出房間里面長什么樣:

只用一張圖+相機走位,AI就能腦補周圍環(huán)境:通通都是高保真效果

是不是有線上 VR 看房那味兒了。不只是室內(nèi)效果,來個遠景長鏡頭航拍也是 so easy:

這一次的新進展,則是將視角進一步延伸,更側(cè)重讓 AI 預(yù)測出遠距離的畫面。

比如給出一個房間門口,它就能合成穿過門,走過走廊后的場景了。

目前,該研究的相關(guān)論文已被 CVPR2022 接收。

輸入單張畫面和相機軌跡

讓 AI 根據(jù)一個畫面,就推測出后面的內(nèi)容,這個感覺是不是和讓 AI 寫文章有點類似實際上,研究人員這次用到的正是 NLP 領(lǐng)域常用的 Transformer他們利用自回歸 Transformer 的方法,通過輸入單個場景圖像和攝像機運動軌跡,讓生成的每幀畫面與運動軌跡位置一一對應(yīng),從而合成出一個遠距離的長鏡頭效果

整個過程可以分為兩個階段。

第一階段先預(yù)訓(xùn)練了一個 VQ—GAN,可以把輸入圖像映射到 token 上VQ—GAN 是一個基于 Transformer 的圖像生成模型,其最大特點就是生成的圖像非常高清在這部分,編碼器會將圖像編碼為離散表示,解碼器將表示映射為高保真輸出

第二階段,在將圖像處理成 token 后,研究人員用了類似 GPT 的架構(gòu)來做自回歸具體訓(xùn)練過程中,要將輸入圖像和起始相機軌跡位置編碼為特定模態(tài)的 token,同時添加一個解耦的位置輸入 P.E.然后,token 被喂給自回歸 Transformer 來預(yù)測圖像模型從輸入的單個圖像開始推理,并通過預(yù)測前后幀來不斷增加輸入

研究人員發(fā)現(xiàn),并非每個軌跡時刻生成的幀都同樣重要因此,他們還利用了一個局部性約束來引導(dǎo)模型更專注于關(guān)鍵幀的輸出這個局部性約束是通過攝像機軌跡來引入的基于兩幀畫面所對應(yīng)的攝像機軌跡位置,研究人員可以定位重疊幀,并能確定下一幀在哪

為了結(jié)合以上內(nèi)容,他們利用 MLP 計算了一個相機感知偏差這種方法會使得在優(yōu)化時更加容易,而且對保證生成畫面的一致性上,起到了至關(guān)重要的作用

實驗結(jié)果

本項研究在 RealEstate10K,Matterport3D 數(shù)據(jù)集上進行實驗結(jié)果顯示,相較于不規(guī)定相機軌跡的模型,該方法生成圖像的質(zhì)量更好

與離散相機軌跡的方法相比,該方法的效果也明顯更好。

在消融實驗上,結(jié)果顯示該方法在 Matterport3D 數(shù)據(jù)集上,相機感知偏差和解耦位置的嵌入,都對提高圖像質(zhì)量和幀與幀之間的一致性有所幫助。

Xuanchi Ren 為香港科技大學(xué)本科生。

他曾在微軟亞研院實習過,2021 年暑期與 Xiaolong Wang 教授有過合作。

Xiaolong Wang 是加州大學(xué)圣地亞哥分校助理教授。

他博士畢業(yè)于卡內(nèi)基梅隆大學(xué)機器人專業(yè)研究興趣有計算機視覺,機器學(xué)習和機器人等特別自我監(jiān)督學(xué)習,視頻理解,常識推理,強化學(xué)習和機器人技術(shù)等領(lǐng)域

論文地址:

。

聲明:本網(wǎng)轉(zhuǎn)發(fā)此文章,旨在為讀者提供更多信息資訊,所涉內(nèi)容不構(gòu)成投資、消費建議。文章事實如有疑問,請與有關(guān)方核實,文章觀點非本網(wǎng)觀點,僅供讀者參考。