近日,計(jì)算機(jī)圖形學(xué)及互交技術(shù)頂會(huì) SIGGRAPH 2023 公布了今年的技術(shù)論文獎(jiǎng)項(xiàng)。
自 50 年前舉辦第一次會(huì)議以來(lái), Technical Papers program 一直是 SIGGRAPH 的核心。眾多研究傳播和討論了動(dòng)畫(huà)、模擬、成像、幾何、建模、渲染、人機(jī)交互、觸覺(jué)、制造、機(jī)器人、可視化、音頻、光學(xué)、編程語(yǔ)言、沉浸式體驗(yàn)和視覺(jué)計(jì)算機(jī)器學(xué)習(xí)等方面創(chuàng)新學(xué)術(shù)工作。
今年,共有 5 項(xiàng)研究獲得了最佳論文獎(jiǎng),8 項(xiàng)研究獲得了榮譽(yù)提名。這些論文因其研究的突出性和對(duì)計(jì)算機(jī)圖形和交互技術(shù)研究的未來(lái)的新貢獻(xiàn)而入選。
此外,ACM SIGGRAPH 今年首次設(shè)立時(shí)間檢驗(yàn)獎(jiǎng),這些論文至少在十年內(nèi)對(duì)計(jì)算機(jī)圖形和交互技術(shù)產(chǎn)生了重要而持久的影響。時(shí)間檢驗(yàn)獎(jiǎng)委員會(huì)評(píng)審了 2011 年至 2013 年在 SIGGRAPH 會(huì)議上發(fā)表的論文,選出了 4 篇獲獎(jiǎng)?wù)撐摹?/p>
最佳論文
論文 1:Split-Lohmann Multifocal Displays
論文鏈接:https://yingsiqin.github.io/assets/pdfs/SplitLohmann_SIGGRAPH23-lowres.pdf
機(jī)構(gòu):CMU
研究貢獻(xiàn):這項(xiàng)工作描述了一種近眼 3D 顯示器,它可以瞬間創(chuàng)建一個(gè)虛擬世界,完全支持人眼關(guān)注不同距離內(nèi)容的固有能力。這種能力使觀看者能夠以以前無(wú)法達(dá)到的沉浸水平體驗(yàn) 3D 視頻和互動(dòng)游戲。
論文 2:Differentiable Stripe Patterns for Inverse Design of Structured Surfaces
論文鏈接:https://arxiv.org/pdf/2305.13841.pdf
機(jī)構(gòu):蘇黎世聯(lián)邦理工學(xué)院
研究貢獻(xiàn):這項(xiàng)工作介紹了可微分條紋圖案(Differentiable Stripe Patterns),一種用于自動(dòng)設(shè)計(jì)具有條紋狀、雙材料分布的物理表面的計(jì)算方法,并提出了一個(gè)基于梯度的優(yōu)化工具來(lái)自動(dòng)計(jì)算最接近宏觀力學(xué)性能目標(biāo)的條紋圖案。
論文 3:Globally Consistent Normal Orientation for Point Clouds by Regularizing the Winding-number Field
論文鏈接:https://arxiv.org/pdf/2304.11605.pdf
機(jī)構(gòu):山東大學(xué)、香港大學(xué)等
研究貢獻(xiàn):這項(xiàng)研究提出了一個(gè)平滑的目標(biāo)函數(shù)來(lái)描述可接受的繞組數(shù)場(chǎng)的要求,它允許人們從一組完全隨機(jī)的法向開(kāi)始找到全局一致的法向。
論文 4:3D Gaussian Splatting for Real-time Radiance Field Rendering
論文鏈接:https://repo-sam.inria.fr/fungraph/3d-gaussian-splatting/3d_gaussian_splatting_low.pdf
機(jī)構(gòu):蔚藍(lán)海岸大學(xué)、馬克斯?普朗克計(jì)算機(jī)科學(xué)研究所
研究貢獻(xiàn):這項(xiàng)研究提出的方法允許實(shí)時(shí)渲染(>=30fps)具有高視覺(jué)質(zhì)量的輻射場(chǎng)。該方法用 3D 高斯精確地表示了場(chǎng)景,允許有效的優(yōu)化。其可見(jiàn)性感知渲染加速了訓(xùn)練,在同等質(zhì)量的情況下,達(dá)到了與之前最快的方法一樣的速度。額外一小時(shí)的訓(xùn)練就能提供 SOTA 質(zhì)量。
論文 5:DOC: Differentiable Optimal Control for Retargeting Motions Onto Legged Robots
機(jī)構(gòu):迪士尼幻想工程研究中心,蘇黎世聯(lián)邦理工學(xué)院
研究貢獻(xiàn):這項(xiàng)研究提出了一個(gè)可微分最佳控制(DOC)框架,有助于計(jì)算關(guān)于用戶定義參數(shù)的最佳控制和狀態(tài)軌跡的分析導(dǎo)數(shù)。研究者通過(guò)將 mocap 和動(dòng)畫(huà)數(shù)據(jù)重新定位到一系列不同比例和質(zhì)量分布的足式機(jī)器人上,證明了 DOC 的效用。
榮譽(yù)提名
論文 1:GestureDiffuCLIP: Gesture Diffusion Model With CLIP Latents、
論文鏈接:https://arxiv.org/pdf/2303.14613.pdf
機(jī)構(gòu):北京大學(xué)
研究貢獻(xiàn):這項(xiàng)研究介紹了 GestureDiffuCLIP,這是一個(gè)由 CLIP 指導(dǎo)的、與語(yǔ)音相關(guān)的手勢(shì)合成系統(tǒng),它利用任意的風(fēng)格提示,創(chuàng)造出與語(yǔ)音語(yǔ)義和節(jié)奏相協(xié)調(diào)的風(fēng)格化手勢(shì)。該高度適應(yīng)性系統(tǒng)支持短文、運(yùn)動(dòng)序列或視頻片段形式的風(fēng)格提示,并提供針對(duì)身體部位的風(fēng)格控制。
論文 2:Word-as-image for Semantic Typography
論文鏈接:https://arxiv.org/pdf/2303.01818.pdf
機(jī)構(gòu):特拉維夫大學(xué),倫敦大學(xué),萊克曼大學(xué)
研究貢獻(xiàn):在「Word-as-image」技術(shù)中,詞中圖呈現(xiàn)了詞的含義的可視化,同時(shí)也保留了其可讀性。這項(xiàng)研究提出了一種自動(dòng)創(chuàng)建「Word-as-image」插圖的方法。在預(yù)訓(xùn)練的 Stable Diffusion 模型的指導(dǎo)下,該方法對(duì)每個(gè)字母的輪廓進(jìn)行優(yōu)化,以傳達(dá)所需的概念。
論文 3:Sag-Free Initialization for Strand-Based Hybrid Hair Simulation
論文鏈接:https://graphics.cs.utah.edu/research/projects/sag-free-hair/sig23_sagfree-hair.pdf
機(jī)構(gòu):猶他大學(xué),騰訊北美光子工作室(LightSpeed Studios)
研究貢獻(xiàn):本文提出了一個(gè)新穎的四階段無(wú)下垂初始化框架,以解決混合型、基于股的頭發(fā)動(dòng)態(tài)系統(tǒng)的穩(wěn)定準(zhǔn)靜態(tài)配置問(wèn)題。結(jié)果表明,本文方法成功地防止了各種發(fā)型的下垂,并且最小化了模擬過(guò)程對(duì)頭發(fā)運(yùn)動(dòng)的影響。
論文 4:Deployable Strip Structures
論文鏈接:https://www.geometrie.tuwien.ac.at/geom/ig/publications/deployable/deployable.pdf
機(jī)構(gòu):KAUST,ISTI-CNR 等
研究貢獻(xiàn):C-meshes 捕捉到了可從折疊狀態(tài)部署的動(dòng)能結(jié)構(gòu)。它們享有豐富的幾何結(jié)構(gòu)和令人驚訝的微分幾何關(guān)系,特別是具有線性 Weingarten 屬性的表面,本文提供了設(shè)計(jì)和探索 C-meshes 形狀空間的工具,并介紹了 architectural paneling 的應(yīng)用。
論文 5:Towards Attention-Aware Rendering
論文鏈接:https://arxiv.org/pdf/2302.01368.pdf
機(jī)構(gòu):斯坦福大學(xué),代爾夫特理工大學(xué)
研究貢獻(xiàn):現(xiàn)有的用于中心凹形(foveated graphics)的感知模型忽略了視覺(jué)注意力的影響,本文介紹了第一個(gè)對(duì)比敏感度的注意力感知模型,并激勵(lì)了未來(lái)凹陷模型的發(fā)展,證明了當(dāng)用戶集中在凹陷處的任務(wù)時(shí),對(duì)凹陷的容忍度會(huì)明顯提高。
論文 6:Random-access Neural Compression of Material Textures
論文鏈接:https://arxiv.org/pdf/2305.17105.pdf
機(jī)構(gòu):英偉達(dá)
研究貢獻(xiàn):該論文提出了一種針對(duì)紋理貼圖的神經(jīng)壓縮技術(shù),在質(zhì)量相當(dāng)?shù)那闆r下提供了明顯優(yōu)于 BCx 的壓縮,甚至在低比特率下超過(guò)了熵編碼的 AVIF 和 JPEG XL。該研究提出的方法使用小型的、優(yōu)化的神經(jīng)網(wǎng)絡(luò),以實(shí)現(xiàn)高效壓縮、實(shí)時(shí)解壓和在 GPU 上隨機(jī)訪問(wèn)。
論文 7:Learning Physically Simulated Tennis Skills From Broadcast Videos
論文鏈接:https://research.nvidia.com/labs/toronto-ai/vid2player3d/data/tennis_skills_main.pdf
機(jī)構(gòu):斯坦福大學(xué)、英偉達(dá)等
研究貢獻(xiàn):該論文提出了一個(gè)系統(tǒng),利用從網(wǎng)球視頻中收集的大規(guī)模但質(zhì)量較低的動(dòng)作來(lái)學(xué)習(xí)多樣化、復(fù)雜的網(wǎng)球技能,讓模擬角色以高精確度將球打到目標(biāo)位置,并成功進(jìn)行了一系列包括擊球和旋轉(zhuǎn)的競(jìng)爭(zhēng)型比賽。
論文 8:Min-Deviation-Flow in Bi-directed Graphs for T-Mesh Quantization
論文鏈接:https://www.algohex.eu/publications/bimdf-quantization/bimdf-quantization.pdf
機(jī)構(gòu):伯爾尼大學(xué)、牛津大學(xué)
研究貢獻(xiàn):T-Mesh 量化的整數(shù)優(yōu)化是 SOTA 四邊形網(wǎng)格(quad-meshing)方法的核心問(wèn)題。該論文針對(duì)了雙向網(wǎng)絡(luò)中的最小偏差流問(wèn)題(Minimum-DeviationFlow Problem in bi-directed networks,Bi-MDF)提出了一種快速近似求解器。
時(shí)間檢驗(yàn)獎(jiǎng)
論文 1:Functional Maps: A Flexible Representation of Maps Between Shapes (2012)
論文鏈接:https://damassets.autodesk.net/content/dam/autodesk/www/autodesk-reasearch/Publications/pdf/functional-maps-a-flexible.pdf
機(jī)構(gòu):巴黎綜合理工學(xué)院、斯坦福大學(xué)
研究貢獻(xiàn):建立形狀對(duì)之間的對(duì)應(yīng)關(guān)系是形狀推斷和操作的基本步驟。該論文提出了一種稱(chēng)為 functional map 的表征形式,引發(fā)了大量關(guān)于形狀匹配的后續(xù)研究。
論文 2:Eulerian Video Magnification for Revealing Subtle Changes in the World (2012)
論文鏈接:https://people.csail.mit.edu/mrub/papers/vidmag.pdf
機(jī)構(gòu):MIT CSAIL、Quanta Research Cambridge
研究貢獻(xiàn):這篇論文表明,相機(jī)可以捕捉微妙但重要的運(yùn)動(dòng),這些運(yùn)動(dòng)對(duì)于人眼來(lái)說(shuō)太微妙了。后續(xù)研究發(fā)現(xiàn)了許多應(yīng)用領(lǐng)域,包括視頻監(jiān)控(video surveillance)、視覺(jué)振動(dòng)測(cè)量(visual vibrometry)和視覺(jué)麥克風(fēng)(visual microphone)。
論文 3:HDR-VDP-2: A Calibrated Visual Metric for Visibility and Quality Predictions in All Luminance Conditions (2011)
論文鏈接:https://www.cl.cam.ac.uk/~rkm38/pdfs/mantiuk11hdrvdp2.pdf
機(jī)構(gòu):班戈大學(xué)、首爾大學(xué)、不列顛哥倫比亞大學(xué)
研究貢獻(xiàn):該論文提出了在不同亮度條件下人類(lèi)視覺(jué)校準(zhǔn)模型的評(píng)估指標(biāo),該指標(biāo)已成為預(yù)測(cè)各種強(qiáng)度圖像的可見(jiàn)性和質(zhì)量的默認(rèn)標(biāo)準(zhǔn)指標(biāo)。
論文 4:Optimizing Locomotion Controllers Using Biologically-based Actuators and Objectives (2012)
論文鏈接:https://nmbl.stanford.edu/publications/pdf/biolocomotion.pdf
機(jī)構(gòu):斯坦福大學(xué)
研究貢獻(xiàn):該論文提出一種在肌肉骨骼水平上模擬人體運(yùn)動(dòng)的創(chuàng)新方法,激發(fā)了看待人體運(yùn)動(dòng)及其模擬程度的新研究方向。
-
人機(jī)交互
+關(guān)注
關(guān)注
12文章
1213瀏覽量
55462 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8435瀏覽量
132880 -
計(jì)算機(jī)圖形
+關(guān)注
關(guān)注
0文章
11瀏覽量
6536
原文標(biāo)題:SIGGRAPH 2023最佳論文公布!山大、港大獲獎(jiǎng)!北大、騰訊光子獲提名
文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論