由于3D內(nèi)容創(chuàng)作在AR/VR、游戲和電影行業(yè)中的廣泛應(yīng)用,它已經(jīng)引起了顯著的關(guān)注。隨著擴(kuò)散模型的發(fā)展和大規(guī)模3D對象數(shù)據(jù)集的建立,最近三代3D基礎(chǔ)生成通過微調(diào)的文本到圖像(T2I)擴(kuò)散模型以及從頭開始訓(xùn)練大型重建模型得到了廣泛的探索,引領(lǐng)了3D資產(chǎn)創(chuàng)建進(jìn)入新時代。
坦率的講,要是兩年前,我肯定得自己去徒手建模了。但是如今,讓我自己再去建模那肯定不可能,C4D和Blender我打開都不想打開,作為一個AI博主,要是再回去手工建模,那簡直就是就回到原始人了。
數(shù)字人產(chǎn)業(yè)的發(fā)展并非一帆風(fēng)順,從虛擬數(shù)字人到視頻數(shù)字人,每一次嘗試都伴隨著質(zhì)疑和挑戰(zhàn)。那么真人3D數(shù)字人能否突破瓶頸,真正成為開啟元宇宙的大門呢?
Nvidia近日在美國丹佛舉行的Siggraph大會上宣布,正在大幅擴(kuò)展Nvidia Inference Microservices(NIM)庫以涵蓋物理環(huán)境、高級視覺建模和各種垂直應(yīng)用。
生成式AI讓數(shù)字人更更快“活起來”。
5月7日消息,武漢凌久微電子有限公司(以下簡稱凌久微)宣布,該公司自主設(shè)計的GP201圖形處理芯片已實(shí)現(xiàn)批量上市。
可控場景生成(即生成具有可重新排列布局的圖 像的任務(wù))是生成建模的一個重要課題 [16, 34],其應(yīng) 用范圍包括社交媒體平臺的內(nèi)容生成和編輯,以及互 動式室內(nèi)設(shè)計和視頻游戲。
英偉達(dá)多倫多AI實(shí)驗(yàn)室的研究人員正努力解決生成圖像與視頻的時間問題。在本周英偉達(dá)GTC 2024大會上,他們概述了這項(xiàng)工作的部分成果,展示的相關(guān)進(jìn)展有助于更快(因此更經(jīng)濟(jì))生成“噪聲”更少的圖像與細(xì)節(jié)更豐富的3D圖形,甚至能夠?qū)⒁酝臅r幾周或幾個月的任務(wù)縮短至幾天乃至幾分鐘。
當(dāng)前美國的“消費(fèi)者”們正沉浸在前所未有的“0元購”狂歡中,一場“盛宴”卻是零售業(yè)的“噩夢”。生活成本的上升壓縮了消費(fèi)者預(yù)算,零售商們承受著前所未有的壓力。過去兩周,沃爾瑪、塔吉特、均提及這種犯罪行為對其業(yè)務(wù)和員工的影響損失達(dá)到了數(shù)十億美元。
——該聯(lián)盟將推動全球范圍內(nèi)通用場景描述(USD)相關(guān)合作
Nvidia近日對超逼真實(shí)時3D圖形協(xié)作和模擬平臺Omniverse進(jìn)行了多項(xiàng)升級更新,包括為企業(yè)用戶和創(chuàng)作者提供更高的性能和新的工具。
Adobe攜手創(chuàng)意網(wǎng)站It's Nice That(INT)于近日發(fā)布3D 趨勢報告,通過研究目前全球3D設(shè)計領(lǐng)域的創(chuàng)意作品,總結(jié)出當(dāng)下3D產(chǎn)業(yè)的趨勢偏好:“重新想象現(xiàn)實(shí)”,即運(yùn)用生活中的靈感將現(xiàn)實(shí)設(shè)計中的對象與元素重新組合來表達(dá)自我。
NVIDIA現(xiàn)已宣布舉辦首屆專為開發(fā)者、工程師、技術(shù)藝術(shù)家、業(yè)余愛好者和研究者打造的NVIDIA Omniverse比賽,參賽者需要開發(fā)用于3D世界的Python工具。
讓AI模型如何在少量訓(xùn)練數(shù)據(jù)支持下學(xué)會在物理世界中行走,目前已經(jīng)取得了快速進(jìn)展。這項(xiàng)研究能夠顯著縮短AI模型獲得視覺導(dǎo)航能力的時間。以前,實(shí)現(xiàn)這類目標(biāo)要需要利用大量數(shù)據(jù)集配合重復(fù)“強(qiáng)化學(xué)習(xí)”才能實(shí)現(xiàn)。
GANverse3D應(yīng)用為2D到3D的圖像轉(zhuǎn)換提供了全新的思路,而目前3D圖像設(shè)計在建筑師、創(chuàng)作者、游戲開發(fā)人員與設(shè)計師等領(lǐng)域有著廣泛的應(yīng)用,這樣GANverse3D具有廣闊的應(yīng)用空間。