시작하며
4일차는 3일차보다 기대가 컸습니다. 듣고 싶은 세션들을 사전 조사하고, 논문 요약과 질문 거리까지 준비했으니 더욱 알찬 하루가 될 것이라 기대했죠.
아래처럼 열심히 정리도 하고 말이죠.
Beauty Salon: Hair, Face, Lips, and Teeth
이 세션에서는 아래 논문들을 들었습니다:
- Curly-Cue: Geometric Methods for Highly Coiled Hair
- SPARK: Self-supervised Personalized Real-time Monocular Face Capture
- GroomCap: High-Fidelity Prior-Free Hair Capture
- Towards Unified 3D Hair Reconstruction from Single-View Portraits
- The Lips, the Teeth, the tip of the Tongue: LTT Tracking
- Hairmony: Fairness-aware hairstyle classification
주요 인사이트:
머리카락, 얼굴, 구강 구조와 관련된 기술이 얼마나 다양하고 섬세하게 발전했는지 확인할 수 있었습니다. 특히 Hairmony는 데이터셋의 공정성을 개선하려는 시도가 인상적이었고, GroomCap은 외부 데이터 없이도 고품질의 3D 재구성을 가능하게 한 점이 돋보였습니다.
Modeling and Reconstruction
이어지는 세션에서는 3D 모델링과 재구성 관련 논문들을 다뤘습니다:
- FaçAID: A Transformer Model for Neuro-Symbolic Facade Reconstruction
- Large Scale Farm Scene Modeling from Remote Sensing Imagery
- Reconstruct Translucent Thin Objects from Photos
- DreamUDF: Generating Unsigned Distance Fields from A Single Image
느낀 점:
NeRF 기반 기술은 여전히 강력하지만, 기존 접근 방식의 반복이 많아 앞으로는 관심 분야에서 제외하려고 합니다.
Animation Insights
시간이 남아 The (Hex)tech of Arcane Season 02 세션에 참석했습니다.
기술적으로 시즌 1과 크게 달라지진 않았지만, 애니메이션의 시각적 완성도를 유지하는 Fortiche의 접근 방식이 흥미로웠습니다.
AI in Anime
다음으로 Utilizing Generative AI for Look Dev in CG Anime Production [In Japanese]를 들었습니다.
울트라맨에 AI 기술을 적용하는 시연이 있었는데, 후처리를 사람이 맡아야 한다는 한계는 있지만, 명암과 색조 조정 속도를 크게 단축한 점이 인상적이었습니다.
Hand and Human
- 360-degree Human Video Generation with 4D Diffusion Transformer
- Synchronize Dual Hands for Physics-Based Dexterous Guitar Playing
- World-Grounded Human Motion Recovery via Gravity-View Coordinates
- DiffH2O: Diffusion-Based Synthesis of Hand-Object Interactions from Textual Descriptions
주요 논문:
특히 Synchronize Dual Hands는 기타 연주와 같은 복잡한 물리 기반 동작의 동기화를 제안하며, VR/AR에 활용 가능성을 보여줬습니다.
Interactive Methods and VR/AR
- iSeg: Interactive 3D Segmentation via Interactive Attention
실제로 사용해보며 인터랙티브 3D 세분화 기술의 효율성과 정확성을 직접 경험할 수 있었습니다.
Modeling and Reconstruction
- Procedural Material Generation with Reinforcement Learning
- GPU Coroutines for Flexible Splitting and Scheduling of Rendering Tasks
두 논문 모두 그래픽스와 AI의 융합을 통해 렌더링 작업과 소재 생성의 효율성을 크게 개선한 연구로, 실용성과 혁신성을 겸비했습니다.
마무리
마지막 세션 이후 포스터 섹션을 간단히 살펴보고, 일본에 거주하는 지인과 저녁을 먹으며 하루를 마무리했습니다.
전체적인 감상:
SIGGRAPH Asia 2024의 다양한 세션을 통해 새로운 아이디어를 얻고, 기술적 통찰을 확장할 수 있었습니다. 특히 3D 모델링과 VR/AR 기술의 발전이 두드러졌지만, 분야마다 반복적인 접근이 존재함을 느끼며 앞으로의 연구 방향에 대해 고민하게 되었습니다.
개인적으로 아래의 사이트를 보면 알겠지만, 진짜 일정 찾아서 보는거 힘들었습니다. 일정 좀 잘 보이게 바꿨으면, 좋겠습니다.
https://asia.siggraph.org/2024/full-program/
Full Program - SIGGRAPH Asia 2024
Venue Lobby Gallery (1) & (2), G Block, Level B1Hall E, E Block, Level B2Hall E - Talk Stage, E Block, Level B2Seminar Room 1, E2003, E Block, Level B2E2005, E Block, Level B2E2006, E Block, Level B2Seminar Room 2, E2007, E Block, Level B2Hall C, C Block,
asia.siggraph.org