본문 바로가기

adversarial attacks

Chapter 10 Various artificial intelligence 인공지능이 활용되고 있는 다양한 영역을 소개하고 기본적인 인공지능 리뷰를 끝내려한다. 먼저 소개할 것은 Adversarial Attacks이다. 위의 이미지가 햇갈리는가? 개와 머핀, 개와 대걸래의 사진이다. 우리는 명확하게 인식하지만 컴퓨터는 명확하게 인식하지 못한다. Adversarial Attack이란 이미지 분류와 같은 인공지능 모델을 속이기 위해, 입력에 감지할 수 없는 노이즈를 추가하여 모델의 결과를 변경하는 것이다. 다음 그림과 같이 많은 형태의 Adversarial Attack이 있다. Adversarial examples는 기계 학습 모델에 대한 보안 우려를 일으킨다. - 하나의 네트워크를 속이기 위해 만들어진 공격은 다른 네트워크도 속인다. - 공격은 물리적 세계에서도 작동한다. - 심.. 더보기
Chat-GPT 잡아내는 AI 나왔다 출처: https://n.news.naver.com/article/015/0004804576 AI 전쟁의 서막…챗GPT 잡아내는 AI 나왔다 인공지능(AI) 챗봇인 챗GPT가 만든 콘텐츠를 잡아내는 AI 기술이 나왔다. 챗GPT의 성능이 너무 뛰어나 각종 논란이 커지면서다. 챗GPT 같은 일명 생성AI 기술이 사람을 속이는 데 악용될 수 있다는 우 n.news.naver.com 간단한 한 요약: “학생들이 (GPT 같은) LLM(대규모 언어 모델) 사용해 과제를 끝낼 수 있는데 이런 경우 선생은 학생의 학습 내용을 정확하게 평가할 수 없다”며 미국 스탠퍼드대의 크리스토퍼 매닝 교수와 첼시 핀 교수 등이 참여한 연구팀은 지난 26일 챗GPT의 바탕인 AI 언어모델 GPT3로 만들어진 문장 찾아내는 기술(디.. 더보기