본문 바로가기

전체 글

ZEPETO WORLD JAM 2023 참여 후기 https://zepetoworldjam.com/ ZEPETO WORLD JAM Let’s create a new World of play! Reimagine how people come together in the metaverse; from interactive multiplayer spaces that bring communities together to immersive strategy battles where players outwit their friends. zepetoworldjam.com https://github.com/cs20131516/zepeto-world-sync-component-main https://docs.google.com/document/d/16M1z3pKsCdHjwY.. 더보기
Tableau 기초로 보면 좋은 영상 https://www.youtube.com/watch?v=DkTVBZgudlM 12분 30초부터 보면 좋을 것 같네요. 기초 부분이라 그런가 2019년 하반기에 쓰던 Tableau와 크게 달라진 부분은 없는 것 같아 아쉽네요. 대신 인터렉티브한 부분들은 많이 좋아진 것 같네요. 컴퓨터의 사양의 차이일지 모르겠지만 많이 최적화된 것 같네요. 더보기
엔비디아가 성장 가능성이 높은 이유 https://www.youtube.com/watch?v=7Vf6l7ieQKs GPU의 연산을 위한 CUDA를 엔비디아가 독점하기 때문이다. 즉, 연산을 위한 HW/SW가 독점되고 있기 때문이다. 더보기
개인적으로 구글 번역기보다 깔끔한 번역기 https://www.deepl.com/translator DeepL 번역: 세계에서 가장 정확한 번역기 텍스트 및 전체 문서 파일을 즉시 번역하세요. 개인과 팀을 위한 정확한 번역. 매일 수백만 명이 DeepL로 번역합니다. www.DeepL.com 추천드립니다. 더보기
2023년은 인공지능은 동영상 변환 시대 https://www.youtube.com/watch?v=DtC_fexN-r0 참조한 영상은 다음과 같습니다. 2021년 image to image 모델인 Latent Diffusion model이 나온이후 2022년에는 promt(입력창) to image 모델인 Stable diffusion이 세계를 강타했다. 이 Stable diffusion 모델을 바탕으로 image와 관련 없이 많이 없다고 생각되었던 음악 같은 여러분야에 이용이 되고 있다. 2023년에는 인공지능이 image to video나 promt to video로 가는 길은 어떻게보면 당연한 길이었다. 하지만 2023년 초기부터 벌써 많은 Diffusion 모델을 활용한 동영상 모델들이 서비스를 시작하는 것은 참으로 기술의 발전을 실감하게.. 더보기
인공지능 공부용 책 Dive into Deep Learning https://d2l.ai/d2l-en.pdf 공개된 오픈소스 책입니다. 양은 많은데, 잘 정리되어있습니다. 더보기
OpenAI Codex 사용해서 게임 만들기 https://openai.com/blog/openai-codex/ OpenAI Codex We’ve created an improved version of OpenAI Codex, our AI system that translates natural language to code, and we are releasing it through our API in private beta starting today. Codex is the model that powers GitHub Copilot, which we built and launched openai.com /* /* Create the canvas element. */ */ var canvas = document.createElement('canvas.. 더보기
RL Drone Challenge behaviors: My Behavior: trainer_type: ppo hyperparameters: batch_size: 128 buffer_size: 2048 learning_rate: 0.0005 beta: 0.01 epsilon: 0.2 lambd: 0.95 num_epoch: 5 learning_rate_schedule: linear network_settings: normalize: true hidden_units: 128 num_layers: 2 vis_encode_type: nature_cnn Batch size: The batch size has been decreased to 128 to improve stability during training. Learning rate: The.. 더보기