컨퍼런스 썸네일형 리스트형 [Design it all: font, paint, and colors] ProcessPainter: Learning to draw from sequence data https://dl.acm.org/doi/10.1145/3680528.3687596 ProcessPainter: Learning to draw from sequence data | SIGGRAPH Asia 2024 Conference PapersPublication History Published: 03 December 2024dl.acm.org ProcessPainter: 그림을 그리는 AI의 새로운 접근시그라프 아시아 2024에서 흥미로웠던 논문 중 하나는 ProcessPainter: Learning to Draw from Sequence Data입니다. 이 논문은 단순히 이미지를 한 번에 생성하는 것이 아니라, AI가 사람처럼 점진적으로 그림을 완성하는 과정을 학습한 연구입니다.핵심 아이디어: 단계.. 더보기 [Design it all: font, paint, and colors] SD-πXL: Generating Low-Resolution Quantized Imagery via Score Distillation https://dl.acm.org/doi/full/10.1145/3680528.3687570 SD-πXL: Generating Low-Resolution Quantized Imagery via Score Distillation | SIGGRAPH Asia 2024 Conference PapersPublication History Published: 03 December 2024dl.acm.org SD-πXL: 픽셀 이미지 생성의 새로운 시도이번 시그라프 아시아 2024에서 다룬 SD-πXL는 픽셀 이미지 생성에 집중한 논문으로, Diffusion 기반의 Score Distillation Sampling (SDS)과 Discrete Quantization이 결합된 점이 특징이었습니다.핵심 아이디어: 픽셀 .. 더보기 [Design it all: font, paint, and colors] HFH-Font: Few-shot Chinese Font Synthesis with Higher Quality, Faster Speed, and Higher Resolution https://arxiv.org/abs/2410.06488 HFH-Font: Few-shot Chinese Font Synthesis with Higher Quality, Faster Speed, and Higher ResolutionThe challenge of automatically synthesizing high-quality vector fonts, particularly for writing systems (e.g., Chinese) consisting of huge amounts of complex glyphs, remains unsolved. Existing font synthesis techniques fall into two categories: 1) methodsarxiv.org HF.. 더보기 [Make it Yours - Customizing Image Generation] Identity-Preserving Face Swapping via Dual Surrogate Generative Models https://dl.acm.org/doi/10.1145/3676165 Identity-Preserving Face Swapping via Dual Surrogate Generative Models | ACM Transactions on GraphicsIn this study, we revisit the fundamental setting of face-swapping models and reveal that only using implicit supervision for training leads to the difficulty of advanced methods to preserve the source identity. We propose a novel reverse pseudo-input ...dl... 더보기 [Make it Yours - Customizing Image Generation] Customizing Text-to-Image Diffusion with Object Viewpoint Control https://dl.acm.org/doi/10.1145/3680528.3687564 Customizing Text-to-Image Diffusion with Object Viewpoint Control | SIGGRAPH Asia 2024 Conference PapersPublication History Published: 03 December 2024dl.acm.org이 논문은 **3D 객체의 시점(Viewpoint)**을 제어하면서도 Text-to-Image Diffusion 모델을 커스터마이징하는 방법을 제시합니다. 기존 2D 기반 모델이 시점 제어에 한계를 보인다는 점을 개선한 것이 핵심입니다.핵심 기술FeatureNeRF:다수의 이미지 시점 데이터를 학습해 3D Latent Feature를 생성.. 더보기 [Make it Yours - Customizing Image Generation] Customizing Text-to-Image Models with a Single Image Pair https://dl.acm.org/doi/10.1145/3680528.3687642 Customizing Text-to-Image Models with a Single Image Pair | SIGGRAPH Asia 2024 Conference PapersPublication History Published: 03 December 2024dl.acm.org Customizing Text-to-Image Models with a Single Image Pair시그라프 아시아 2024에서 주목했던 논문 중 하나는 **"Customizing Text-to-Image Models with a Single Image Pair"**입니다. 이 논문은 스타일과 내용의 분리라는 오래된 문제를 효율적으로 해결하는 Dua.. 더보기 [Make it Yours - Customizing Image Generation] PALP: Prompt Aligned Personalization of Text-to-Image Models https://dl.acm.org/doi/10.1145/3680528.3687604 PALP: Prompt Aligned Personalization of Text-to-Image Models | SIGGRAPH Asia 2024 Conference PapersPublication History Published: 03 December 2024dl.acm.org PALP: 데이터 확보의 중요성과 아쉬운 설명이번 시그라프 아시아 2024에서 흥미롭게 들었던 논문 중 하나는 PALP: Prompt Aligned Personalization of Text-to-Image Models입니다. 하지만 발표를 들을 당시에는 데이터 확보의 중요성에 대한 설명이 부족하다는 느낌이 들었습니다.데이터 확보와 모델의 한계P.. 더보기 [Make it Yours - Customizing Image Generation] ReVersion: Diffusion-Based Relation Inversion from Images https://dl.acm.org/doi/10.1145/3680528.3687658 ReVersion: Diffusion-Based Relation Inversion from Images | SIGGRAPH Asia 2024 Conference PapersPublication History Published: 03 December 2024dl.acm.orgReVersion: Diffusion-Based Relation Inversion from Images시그라프 아시아 2024에서 흥미롭게 들었던 논문 중 하나는 **"ReVersion: Diffusion-Based Relation Inversion from Images"**입니다. 발표에서는 다양한 Loss에 대해 설명했지만, 논문을 다시 검토하면서 .. 더보기 이전 1 ··· 5 6 7 8 9 다음