近日,計算機圖形學及互交技術(shù)頂會 SIGGRAPH 2023 公布了今年的技術(shù)論文獎項。
自 50 年前舉辦第一次會議以來, Technical Papers program 一直是 SIGGRAPH 的核心。眾多研究傳播和討論了動畫、模擬、成像、幾何、建模、渲染、人機交互、觸覺、制造、機器人、可視化、音頻、光學、編程語言、沉浸式體驗和視覺計算機器學習等方面創(chuàng)新學術(shù)工作。
今年,共有 5 項研究獲得了最佳論文獎,8 項研究獲得了榮譽提名。這些論文因其研究的突出性和對計算機圖形和交互技術(shù)研究的未來的新貢獻而入選。
此外,ACM SIGGRAPH 今年首次設(shè)立時間檢驗獎,這些論文至少在十年內(nèi)對計算機圖形和交互技術(shù)產(chǎn)生了重要而持久的影響。時間檢驗獎委員會評審了 2011 年至 2013 年在 SIGGRAPH 會議上發(fā)表的論文,選出了 4 篇獲獎?wù)撐摹?/p>
最佳論文
論文 1:Split-Lohmann Multifocal Displays
論文鏈接:https://yingsiqin.github.io/assets/pdfs/SplitLohmann_SIGGRAPH23-lowres.pdf
機構(gòu):CMU
研究貢獻:這項工作描述了一種近眼 3D 顯示器,它可以瞬間創(chuàng)建一個虛擬世界,完全支持人眼關(guān)注不同距離內(nèi)容的固有能力。這種能力使觀看者能夠以以前無法達到的沉浸水平體驗 3D 視頻和互動游戲。
論文 2:Differentiable Stripe Patterns for Inverse Design of Structured Surfaces
論文鏈接:https://arxiv.org/pdf/2305.13841.pdf
機構(gòu):蘇黎世聯(lián)邦理工學院
研究貢獻:這項工作介紹了可微分條紋圖案(Differentiable Stripe Patterns),一種用于自動設(shè)計具有條紋狀、雙材料分布的物理表面的計算方法,并提出了一個基于梯度的優(yōu)化工具來自動計算最接近宏觀力學性能目標的條紋圖案。
論文 3:Globally Consistent Normal Orientation for Point Clouds by Regularizing the Winding-number Field
論文鏈接:https://arxiv.org/pdf/2304.11605.pdf
機構(gòu):山東大學、香港大學等
研究貢獻:這項研究提出了一個平滑的目標函數(shù)來描述可接受的繞組數(shù)場的要求,它允許人們從一組完全隨機的法向開始找到全局一致的法向。
論文 4:3D Gaussian Splatting for Real-time Radiance Field Rendering
論文鏈接:https://repo-sam.inria.fr/fungraph/3d-gaussian-splatting/3d_gaussian_splatting_low.pdf
機構(gòu):蔚藍海岸大學、馬克斯?普朗克計算機科學研究所
研究貢獻:這項研究提出的方法允許實時渲染(>=30fps)具有高視覺質(zhì)量的輻射場。該方法用 3D 高斯精確地表示了場景,允許有效的優(yōu)化。其可見性感知渲染加速了訓(xùn)練,在同等質(zhì)量的情況下,達到了與之前最快的方法一樣的速度。額外一小時的訓(xùn)練就能提供 SOTA 質(zhì)量。
論文 5:DOC: Differentiable Optimal Control for Retargeting Motions Onto Legged Robots
機構(gòu):迪士尼幻想工程研究中心,蘇黎世聯(lián)邦理工學院
研究貢獻:這項研究提出了一個可微分最佳控制(DOC)框架,有助于計算關(guān)于用戶定義參數(shù)的最佳控制和狀態(tài)軌跡的分析導(dǎo)數(shù)。研究者通過將 mocap 和動畫數(shù)據(jù)重新定位到一系列不同比例和質(zhì)量分布的足式機器人上,證明了 DOC 的效用。
榮譽提名
論文 1:GestureDiffuCLIP: Gesture Diffusion Model With CLIP Latents、
論文鏈接:https://arxiv.org/pdf/2303.14613.pdf
機構(gòu):北京大學
研究貢獻:這項研究介紹了 GestureDiffuCLIP,這是一個由 CLIP 指導(dǎo)的、與語音相關(guān)的手勢合成系統(tǒng),它利用任意的風格提示,創(chuàng)造出與語音語義和節(jié)奏相協(xié)調(diào)的風格化手勢。該高度適應(yīng)性系統(tǒng)支持短文、運動序列或視頻片段形式的風格提示,并提供針對身體部位的風格控制。
論文 2:Word-as-image for Semantic Typography
論文鏈接:https://arxiv.org/pdf/2303.01818.pdf
機構(gòu):特拉維夫大學,倫敦大學,萊克曼大學
研究貢獻:在「Word-as-image」技術(shù)中,詞中圖呈現(xiàn)了詞的含義的可視化,同時也保留了其可讀性。這項研究提出了一種自動創(chuàng)建「Word-as-image」插圖的方法。在預(yù)訓(xùn)練的 Stable Diffusion 模型的指導(dǎo)下,該方法對每個字母的輪廓進行優(yōu)化,以傳達所需的概念。
論文 3:Sag-Free Initialization for Strand-Based Hybrid Hair Simulation
論文鏈接:https://graphics.cs.utah.edu/research/projects/sag-free-hair/sig23_sagfree-hair.pdf
機構(gòu):猶他大學,騰訊北美光子工作室(LightSpeed Studios)
研究貢獻:本文提出了一個新穎的四階段無下垂初始化框架,以解決混合型、基于股的頭發(fā)動態(tài)系統(tǒng)的穩(wěn)定準靜態(tài)配置問題。結(jié)果表明,本文方法成功地防止了各種發(fā)型的下垂,并且最小化了模擬過程對頭發(fā)運動的影響。
論文 4:Deployable Strip Structures
論文鏈接:https://www.geometrie.tuwien.ac.at/geom/ig/publications/deployable/deployable.pdf
機構(gòu):KAUST,ISTI-CNR 等
研究貢獻:C-meshes 捕捉到了可從折疊狀態(tài)部署的動能結(jié)構(gòu)。它們享有豐富的幾何結(jié)構(gòu)和令人驚訝的微分幾何關(guān)系,特別是具有線性 Weingarten 屬性的表面,本文提供了設(shè)計和探索 C-meshes 形狀空間的工具,并介紹了 architectural paneling 的應(yīng)用。
論文 5:Towards Attention-Aware Rendering
論文鏈接:https://arxiv.org/pdf/2302.01368.pdf
機構(gòu):斯坦福大學,代爾夫特理工大學
研究貢獻:現(xiàn)有的用于中心凹形(foveated graphics)的感知模型忽略了視覺注意力的影響,本文介紹了第一個對比敏感度的注意力感知模型,并激勵了未來凹陷模型的發(fā)展,證明了當用戶集中在凹陷處的任務(wù)時,對凹陷的容忍度會明顯提高。
論文 6:Random-access Neural Compression of Material Textures
論文鏈接:https://arxiv.org/pdf/2305.17105.pdf
機構(gòu):英偉達
研究貢獻:該論文提出了一種針對紋理貼圖的神經(jīng)壓縮技術(shù),在質(zhì)量相當?shù)那闆r下提供了明顯優(yōu)于 BCx 的壓縮,甚至在低比特率下超過了熵編碼的 AVIF 和 JPEG XL。該研究提出的方法使用小型的、優(yōu)化的神經(jīng)網(wǎng)絡(luò),以實現(xiàn)高效壓縮、實時解壓和在 GPU 上隨機訪問。
論文 7:Learning Physically Simulated Tennis Skills From Broadcast Videos
論文鏈接:https://research.nvidia.com/labs/toronto-ai/vid2player3d/data/tennis_skills_main.pdf
機構(gòu):斯坦福大學、英偉達等
研究貢獻:該論文提出了一個系統(tǒng),利用從網(wǎng)球視頻中收集的大規(guī)模但質(zhì)量較低的動作來學習多樣化、復(fù)雜的網(wǎng)球技能,讓模擬角色以高精確度將球打到目標位置,并成功進行了一系列包括擊球和旋轉(zhuǎn)的競爭型比賽。
論文 8:Min-Deviation-Flow in Bi-directed Graphs for T-Mesh Quantization
論文鏈接:https://www.algohex.eu/publications/bimdf-quantization/bimdf-quantization.pdf
機構(gòu):伯爾尼大學、牛津大學
研究貢獻:T-Mesh 量化的整數(shù)優(yōu)化是 SOTA 四邊形網(wǎng)格(quad-meshing)方法的核心問題。該論文針對了雙向網(wǎng)絡(luò)中的最小偏差流問題(Minimum-DeviationFlow Problem in bi-directed networks,Bi-MDF)提出了一種快速近似求解器。
時間檢驗獎
論文 1:Functional Maps: A Flexible Representation of Maps Between Shapes (2012)
論文鏈接:https://damassets.autodesk.net/content/dam/autodesk/www/autodesk-reasearch/Publications/pdf/functional-maps-a-flexible.pdf
機構(gòu):巴黎綜合理工學院、斯坦福大學
研究貢獻:建立形狀對之間的對應(yīng)關(guān)系是形狀推斷和操作的基本步驟。該論文提出了一種稱為 functional map 的表征形式,引發(fā)了大量關(guān)于形狀匹配的后續(xù)研究。
論文 2:Eulerian Video Magnification for Revealing Subtle Changes in the World (2012)
論文鏈接:https://people.csail.mit.edu/mrub/papers/vidmag.pdf
機構(gòu):MIT CSAIL、Quanta Research Cambridge
研究貢獻:這篇論文表明,相機可以捕捉微妙但重要的運動,這些運動對于人眼來說太微妙了。后續(xù)研究發(fā)現(xiàn)了許多應(yīng)用領(lǐng)域,包括視頻監(jiān)控(video surveillance)、視覺振動測量(visual vibrometry)和視覺麥克風(visual microphone)。
論文 3:HDR-VDP-2: A Calibrated Visual Metric for Visibility and Quality Predictions in All Luminance Conditions (2011)
論文鏈接:https://www.cl.cam.ac.uk/~rkm38/pdfs/mantiuk11hdrvdp2.pdf
機構(gòu):班戈大學、首爾大學、不列顛哥倫比亞大學
研究貢獻:該論文提出了在不同亮度條件下人類視覺校準模型的評估指標,該指標已成為預(yù)測各種強度圖像的可見性和質(zhì)量的默認標準指標。
論文 4:Optimizing Locomotion Controllers Using Biologically-based Actuators and Objectives (2012)
論文鏈接:https://nmbl.stanford.edu/publications/pdf/biolocomotion.pdf
機構(gòu):斯坦福大學
研究貢獻:該論文提出一種在肌肉骨骼水平上模擬人體運動的創(chuàng)新方法,激發(fā)了看待人體運動及其模擬程度的新研究方向。
-
人機交互
+關(guān)注
關(guān)注
12文章
1199瀏覽量
55275 -
機器學習
+關(guān)注
關(guān)注
66文章
8357瀏覽量
132335 -
計算機圖形
+關(guān)注
關(guān)注
0文章
11瀏覽量
6522
原文標題:SIGGRAPH 2023最佳論文公布!山大、港大獲獎!北大、騰訊光子獲提名
文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論