본문 바로가기

전체 글

구글에서 전시중인 인공지능 아트 https://deepmind.google/discover/visualising-ai/ Visualising AI What does AI look like? We’re working with artists and animators to break existing stereotypes — and create a more inclusive image of AI. deepmind.google https://unsplash.com/ko/@googledeepmind Google DeepMind (@googledeepmind) | Unsplash 사진 커뮤니티 Unsplash에서 Google DeepMind의 무료 다운로드 사진, 이미지 및 배경 중에 141개를 확인해 보세요. unsplash.com 세상이 빠르다.. 더보기
Unity + AI https://www.linkedin.com/posts/unity_were-excited-to-share-a-new-integration-activity-7156397837704916994-6nGh?utm_source=share&utm_medium=member_android LinkedIn Unity 페이지: We’re excited to share a new integration with Hugging Face and some… | 댓글 22 We’re excited to share a new integration with Hugging Face and some product updates for Unity Sentis. Our goal is to make AI models more accessible.. 더보기
LLM 이용한 랭체인 노코드툴 https://www.youtube.com/watch?v=ZX5zYXCjH8s comfyui와 비슷한 포멧들이 많이 나오는 것 같네 더보기
240124 알파지오메트리 - 오픈소스 - 합성 데이터로 하는 것 모르면 모른다 ai runway ml stable ai 파라미터 1.6B이네 더보기
LORA (Low-Rank Adaptation) vs Adapter LORA (Low-Rank Adaptation) - attention에 추가 네트워크 삽입 Adapter - FFN에 추가? Adapter와 LORA의 주요 차이점은 다음과 같습니다: 구조적 차이: Adapter는 모델의 각 레이어 사이에 추가적인 신경망 레이어를 삽입하여 모델을 조정하는 반면, LORA는 기존 레이어의 가중치를 직접 조정합니다. LORA는 낮은 차원의 행렬을 이용해 기존의 가중치에 변화를 주어 적응시키는 방식입니다. 파라미터 증가: Adapter는 추가 레이어를 통해 파라미터 수가 증가하는 반면, LORA는 매우 적은 수의 추가 파라미터로 기존 모델을 조정합니다. 이는 특히 파라미터 수를 최소화하면서도 효과적인 학습을 원하는 경우 유리할 수 있습니다. 유연성과 특화: Adapter는 다.. 더보기
Scalable Extraction of Training Data from (Production) Language Models Poem 반복문으로 정보 유출 시켰던 논문 결국 P(x) = y 라는 수식을 기반으로 함 x가 이전에 학습했던 데이터라면 이걸 기반으로 y라는 기억을 떠올리게 될 것이다가 기본 컨샙 y가 vector들의 증폭으로 인한 오류 발생이라면 가능함 추가적인 정보는 당연하게 모델이 클 수록 내뱉을 수 있는 양이 많아진다. 더 많은 반복 학습을 하니까. GPT는 일반적인 LLM과 다르다고 말하는데, 내가 볼때는 잘 모르겠음. 애초에 비공개 모델이라 데이터 역산도 결국 자신들이 internet crolling한거라 100퍼 신뢰도에 대해서는 모르겠음 더보기
UBC Ovarian Cancer Subtype Classification and Outlier Detection (UBC-OCEAN) NystromAttention은 이 문제를 해결하기 위해 'Nystrom 방법'을 적용합니다. Nystrom 방법은 행렬의 근사치를 계산하는 데 사용되는 수학적 기법으로, 원래 행렬의 작은 부분집합을 사용하여 전체 행렬을 근사하는 방식입니다. 이를 통해 NystromAttention은 전체 입력 데이터를 사용하지 않고도 어텐션 매트릭스의 근사치를 효율적으로 계산할 수 있습니다. 이 접근 방식은 계산 효율성을 크게 향상시키면서도 모델의 성능을 유지하거나 심지어 개선할 수 있는 잠재력을 가지고 있습니다. 따라서, NystromAttention은 자연어 처리, 이미지 분석 등 다양한 분야에서 트랜스포머 모델을 더 효율적으로 활용할 수 있는 방법으로 주목받고 있습니다. NystromAttention 사용 Vis.. 더보기
Promptbreeder: Self-Referential Self-Improvement Via Prompt Evolution 프롬프트브리더: 프롬프트 진화를 통한 자기 개선 프롬프트브리더는 언어 모델을 효율적으로 개선하기 위한 새로운 방법입니다. 언어 모델이란 텍스트를 생성하고 이해하는 인공지능 알고리즘을 말합니다. 이 방법은 언어 모델이 스스로 프롬프트를 발전시키고 개선하는 것에 초점을 맞춥니다. 자기 참조적 개선: 프롬프트브리더는 언어 모델이 스스로 자신의 프롬프트를 만들고 개선하는 방식을 채택합니다. 이는 진화 알고리즘을 통해 이루어집니다. 진화 알고리즘은 돌연변이와 적합도 평가에 의존하여 더 나은 결과를 도출합니다. 진화 알고리즘의 역할: 언어 모델은 특정 작업을 수행하기 위해 필요한 프롬프트를 스스로 발전시키는데, 이 과정에서 진화 알고리즘이 사용됩니다. 돌연변이 프롬프트와 작업 프롬프트가 개선되면서 모델의 성능이 향.. 더보기