본문 바로가기

전체 글

일반적으로 사용되는 챗봇의 원리 최근에 떠오르고 있는 Chat GPT나 구글의 바드는 일반저긍로 다음의 원리와 같이 작동할 것이다. 이를 간단하게 해설하도록 하겠다. 먼저, 우리는 데이터들을 수집해야한다. 예를들어, 코딩, 문장, 질문, 그에 대한 정답들을 데이터세트 형태로 모으고 이를 supervised learning을 한다. 두번째는 이렇게 만들어진 모델에서도 중복된 데이터들이 있을 것이고 이에 대한 차등을 주며 reward model을 추가적으로 생성한다. 그러면 우리는 2개의 네트워크가 생성되었다. 하지만 지속가능한 챗봇모델을 만들려면 강화학습이 일반적으로 필요하다. 따라서 PPO와 같은 믿을 수 있을 정도로만 업데이트 되는 안전한 강화학습 모델에 supervised learning 네트워크를 기본 모델로 사용하고 (Actor.. 더보기
Chapter 3 Convolutional Neural Networks Open Assistant 참여와 Pytorch based DQN을 코드 작성등 개인적인 일정이 겹쳐 조금 늦게 작성을 시작하게 되었다. 추가적으로 CNN을 어떤 식으로 설명할까 고민하다 전통적인 방식으로 진행하게 될 것 같다. 사람은 사물을 판단할 때, 컴퓨터와 달리 픽셀이 완전히 일치해야 동일한 사물이라고 하지 않는다. 이는 극단적인 예지만, 일반적으로 CNN의 시작은 다음의 O, X Classifier 문제를 푸는 방식으로 시작한다. 우리는 위와 아래의 구분이 명확하지만 컴퓨터는 그렇지 않다. 입력자체가 숫자로 들어오기 때문에, 다음의 그림이 일치하는지 알지 못한다. 그러면 컴퓨터에게 어떻게 이 둘이 동일한 X인지 설명인지 시키게 할 것인가? 이것은 참 어려운 문제이다. 컴퓨터에서 이미지는 픽셀의 .. 더보기
Pytorch based DQN DQN 및 강화학습을 Tensorflow로만 작성하다 Pytorch이가 점차 올라오는 추세가 되어 Pytorch 공부를 겸하여 코드 작성을 하였다. Cartpole environment에서 return해주는 float 값들을 활용하는 DQN 코드를 먼저 작성하였다. 해당 코드를 작성후 Tensorflow와 시간차이를 확인해보니 동일한 알고리즘으로 작성한 것 같은데, 연산 속도에서 훨씬 빠른 속도를 체감하였다. Cartpole environment에서 return해주는 float 값이 아닌 Cartpole environment를 사람처럼 보면서 입력받으며 CNN을 활용하기 위해 CNN-DQN을 작성하였다. 이전 버전들에서는 env.render만으로도 작동되던 방식이 env.render('human')으로 .. 더보기
일간이긴 하지만 오픈 어시스턴트 1위 달성 더보기
List the top 5 take aways from the landmark paper "Attention is All You Need". The paper "Attention is All You Need" is a seminal work in the field of Natural Language Processing (NLP) and deep learning. Here are the top 5 takeaways from this landmark paper: The Transformer architecture: The paper introduces the Transformer architecture, which is now widely used in NLP tasks such as machine translation and text classification. The Transformer is unique in that it uses self.. 더보기
일간이긴 하지만 오픈 어시스턴트 19위 달성 한국어도 좀 해주세요... 11위까지... 더보기
일간이긴 하지만 오픈 어시스턴트 98위 달성 더보기
오픈 어시스턴스(Open Assistant) 현재 대한민국 언어에 대한 label, prompt 생성에 참여중. 닉네임: JunHan Zang 더보기