[AI] Encoder and Decoder 이해하기 (with 제어, 자율주행)
·
AI
최근 자연어 처리(NLP) 분야에서는 트랜스포머(Transformer) 기반의 LLM(Large Language Model)이 많이 쓰이고 있습니다.이런 모델의 대부분은 Encoder-Decoder 구조를 기반으로 설계되어 있습니다.이 구조는 입력 문장을 압축된 표현으로 바꾸는 인코더(Encoder)와 이 표현을 다시 원하는 출력으로 복원하는 디코더(Decoder)로 나뉩니다.하지만 모든 모델이 두 구조를 동시에 사용하는 것은 아니고, 인코더만 존재하는 모델도 있고 반대로 GPT처럼 디코더만 사용하는 모델도 존재합니다! 오늘은 이 두 구조의 개념을 바탕으로, Encoder와 Decoder란 무엇인지 좀 더 깊이 있게 이해하고 제어와 자율주행 관점에서도 살펴봅시다! 1. BERT구글의 BERT(Bidir..
[AI] Diffusion Model 이해하기 - 2
·
AI
지난 포스팅에서는 Diffusion Model의 핵심 구성 요소 중 하나인 Forward Diffusion Process와, 이 과정에서 노이즈를 조절하는 역할을 하는 Diffusion Schedule에 대해 알아보았습니다!Forward Process는 데이터를 점차적으로 가우시안 노이즈로 오염시키는 과정이며 이때 노이즈의 강도는 일정한 스케줄에 따라 세밀하게 조절됩니다. 이번 포스팅에서는 Diffusion Model에서 또 하나의 핵심 단계인 Reverse Diffusion Process와 이를 학습하기 위한 Loss Function 및 모델 학습 과정에 대해 알아봅시다! Reverse Diffusion ProcessReverse Process는 gaussian noise($x_T$)로 부터 원본 d..
[AI] Diffusion model 이해하기 - 1
·
AI
Diffusion Model(확산 모델)은 GAN이나 VAE와 같은 Generative Model(생성 모델) 중 하나입니다.실제로 2022년에 이슈가 되었던 Stable-Diffusion과 DALL-E-2 등의 기반이 되는 모델이죠.많은 논문에서 Diffusion Model이 인용되고 있지만 모델의 복잡성과 수식의 어려움으로 이해하기 어렵습니다.저와 같이 정리하면서 차근차근 이해해봅시다! Diffusion이란 Diffusion Model은 입력 이미지에 정규 분포를 가진 노이즈를 점진적으로 추가한 후 여러 단계에 걸쳐 노이즈를 제거(디노이징)함으로써, 입력 이미지와 유사한 확률 분포를 가진 결과를 생성하는 모델입니다! 이렇게 노이즈를 추가하는 과정을 Forward Process(Forward Diff..
[AI] LSTM(Long Short-Term Memory)
·
AI
1. LSTM의 등장기존의 neural network는 이전에 일어난 사건을 바탕으로 나중에 일어나는 사건은 알지 못한다는 문제점이 있습니다.하지만, neural network는 사람처럼 지속적인 사고가 필요합니다.사람이 어떤 생각을 할 때, 사람이 현재까지 겪었던 모든 것들을 생각하지 않고 아무것도 모른채로 생각을 새로 시작하지는 않으니까요. 이런 것을 지속적인 사고라 하며 다른 말로 장기의존성이라고 합니다! RNN(Recurrent Neural Network)은 기존 neural network의 지속적인 사고에 대한 문제점을 해결하고자 고안된 모델입니다. 스스로를 반복하면서 이전 단계에서 얻은 정보가 지속되도록 하죠.아래 그림을 보면서 더 설명해볼게요, 위 그림을 보면, A는 입력 $X_t$를 받아..