一張 GPU 實時模擬布料碰撞特效,元宇宙時裝秀最新成果展示

語言: CN / TW / HK

在元宇宙裡看時裝秀,會是什麼趕腳?

各種布料摩擦細節,不光看得一清二楚,而且就跟真的一樣。

裙襬隨著模特的走動飛舞起來~ 光是看看,就能知道這件衣服是不是輕盈。這是圖形學大牛王華民團隊的最新成果,提出了一個基於 GPU 的前處理器 MAS,一張 GPU 完成實時布料碰撞特效。

比如這件羊毛大衣,就能以每秒 37 幀的速度實時模擬出來,模擬精度可達 5mm。

而且也不光是衣服,連毛毛球、軟皮玩具也能實現逼真的碰撞特效。

其論文收錄於 SIGGRAPH 2022。作為全球規模最大、水平最高的圖形學會議,SIGGRAPH 每年接收的論文都代表著當年 CG 最高水平。

來康康這是一項什麼樣的研究?一張 GPU 實時模擬碰撞特效

要構建真正意義上的元宇宙,首先需要的是一個強大的實時物理模擬模擬引擎。而當前常見的物理引擎在效果或效率上還遠達不到理想的狀態。服裝模擬是所有模擬問題的制高點。因為服裝的材質、碰撞都是最複雜的,解決好服裝模擬,就等於解決了大部分實時物理模擬問題,為未來元宇宙開發奠定基礎。

從技術上劃分,實時物理模擬分為流體和形變體模擬兩大類。相較於流體,形變體的應用範圍更加廣泛,比如彈性體模擬、布料模擬、頭髮模擬等,其產業端的價值也更加清晰,比如在服裝、工業上的應用。

但當前困擾科學家的一道挑戰,是完成更高質量的實時模擬。任何形變體的模擬,最後都歸於一個線性求解問題,箇中區別無非就是矩陣內部數值、稀疏程度還有矩陣大小的不同。因此,如何快速求解也就成為其中一個重要的突破口。

基於這樣的背景,王華民團隊提出了基於 GPU 的 MAS 前處理器 (Multilevel Additive Schwarz Preconditioner)。

顧名思義,這一前處理器採用了多層和域(domain)分解的概念。以往的演算法主要依賴在一層網格上處理,這樣域越少越好,不然誤差大。但此次研究人員則是構建多個網格層,這樣使用小的、不重疊的域,可以發揮 GPU 平行計算能力。

具體而言,MAS 預處理程式可以分成三個階段。

第一階段,利用 Morton 程式碼快速分層分域。

研究人員提出了一種超節點分割方法和跳過方法,用於空間的初步構建。

第二階段,通過單向 Gauss-Jordan 消除的低成本矩陣預計算,在每個域進行快速的 inverse 求解。此外,研究人員還開發了一個選擇性更新方案,以解決輕微的矩陣修改。

第三階段,執行時預處理,從而對矩陣向量快速求解。為了降低計算成本,研究人員發明了一種對稱矩陣-向量乘法。

實驗表明,MAS 前處理器與許多線性和非線性求解器相容,這些求解器用於帶有動態接觸的形變體模擬,如 PCG、加速梯度下降和 L-BFGS。

以最常見的 PCG 求解器為例,在兩者一起使用時,在 GPU 上的收斂速率仍然明顯優於其他預處理程式,包括 GPU 上的多網格 AmgX。

在達到相同的收斂目標時,MAS 前處理器的收斂速度要比其他前處理器快約四倍。與此同時,MAS 前處理器在 CPU 上也是有效的,其效能也優於其他預處理程式,比如英特爾的 ILU0 和 ILUT。

除此之外還發現,MAS 前處理器的計算開銷很低。

平行計算時僅為 0.118 秒,相比之下 ILU0、ichol 和 ILUT 的成本為 2.50 秒、33.8 秒和 154 秒。

研究人員表示,此次為 5 萬個定點到 50 萬個頂點區間規模的布料和形變體模擬推向了一個更高水平。未來還將繼續研究基於 GPU 域分解(GPU-based domain decomposition)的技術,因為這類演算法有很多可以挖掘的空間。

Style3D 出品

本次研究團隊來自 Style3D 研究院王華民所帶領的團隊。

王華民,俄亥俄州立大學前副教授,佐治亞理工學院電腦科學博士,斯坦福大學電腦科學碩士,公認的世界級圖形學科學家。

曾以唯一作者身份完成四篇 SIGGRAPH 論文,6 屆 SIGGRAPH / SIGGRAPH Asia 技術論文委員會委員,其學生遍佈知名大廠,因為聚焦布料模擬,業內流傳著這樣一句話:

如果你研究布料模擬,就不可能沒讀過王華民教授的論文。

去年 8 月,他正式加盟國內時尚產業鏈 3D 數字化公司任職首席科學家兼凌迪研究院院長。結果不到一年時間,就率隊帶來了最新產學研成果,將實時模擬技術又提升到了新水平。

其核心產品,一個是率先打破國外技術壟斷的 3D 柔性體模擬工業軟體 Style3D Studio,其二是全球創新的面料數字化設計軟體 Style3D Fabric,另有研發全流程協同平臺 Style3D Cloud,以及開創性的數字時尚內容資源商城 Style3D Market。

研發過程中從面輔料選擇、款式設計、渲染模擬、協同與展銷等全流程,都可以進行數字化呈現以及協同合作,以此來提升研發效率。

此外,凌迪 Style3D 還依據工廠生產標準生成生產資料清單,串起整個生產製造環節,進一步推動整個行業鏈路的數字化。

據透露,今年 6 月底凌迪 Style3D 將有面向元宇宙開發者的神祕產品釋出。目前,它的客戶涉及到海內外品牌方、ODM(原始設計製造)商、面輔料商以及泛電商等。

值得一提的是,就在 SIGGRAPH 收錄結果出爐同一時間,凌迪 Style3D 官宣了與牛仔技術公司 Jeanologia 的合作。全球每年生產 35% 的牛仔褲,都採用了這家公司的環保技術。兩者合作下,牛仔設計師也能夠直接在 Style3D 一鍵呼叫牛仔褲紋樣及水洗效果圖案等,無需製作牛仔褲實樣,即可呈現牛仔褲水洗等多種工藝的設計效果。

而且這樣高模擬的數字牛仔褲,還可以直接拿去營銷展示和售賣。

事實上,除了推動整個服裝產業鏈效率外,還有更現實的全球性問題能得到緩解,即現在熱議的碳中和、碳排放。

當前,紡織服裝已經成為全球第二大汙染產業,全球每年約有 1280 萬噸服裝被填埋焚燒,製作服裝所排放的廢水佔全球總量的 20%,並承擔著全球 10% 碳排放。甚至於,還有 15% 紡織產品會遭遇不被使用,直接走向燒燬的命運,從而造成二次汙染。

而一旦將整個產業從研發、生產到最後的商品展銷等全流程搬上數字平臺,汙染問題就能得到有效解決,可持續時尚才真正有落實的方向。

圖形學的產業發展

最後,回到這篇被收錄 SIGGRAPH 的研究成果本身。可以看到的是,它不像是英偉達、谷歌每年傳統藝能 —— 各種炫酷逼真的特效技術,以彰顯企業的前沿技術實力。而是從更垂直的產業角度出發,技術迭代不太容易被人感知,但切實地解決了產業問題。

一方面,這說明圖形學技術已經來到了產業端創造價值。

圖形學最有可能、也是最大限度落地的領域,不是熱議的電影、遊戲,而是像服裝、工業這等產業領域。

另一方面還說明中國在圖形學上技術水平並不弱,會像 AI 一樣從前沿到產業加速前進。從此次 SIGGRAPH 論文收錄結果可以看到,中國團隊已經佔據名單的一大半,其中不乏高校以及企業代表。

隨著圖形學產業價值更加顯性,更多世界級大牛參與進來。企業也將通過設立研究院、啟動獎學金等方式吸引更多高校人才加入。

以凌迪 Style3D 為例,去年就啟動了凌迪圖形學獎學金計劃,每位獲獎者將獲得 3 萬人民幣的現金獎勵,第一期就有清華、浙大、中科大、南開、山大等 10 名碩博士獲得。

如此一來,產學研閉環一形成,更有利於圖形學產業化的長期發展。

如今爆火的元宇宙,最終擠掉泡沫。像當初的 AI 一樣,只有將底層技術與產業相結合,發揮更長遠的價值。

「其他文章」