목록2025/02/15 (1)
어쩌다데싸
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/OMQ7l/btsLTIlTsqc/4Z9uz51IVN4gYF3TjK5K61/img.png)
목차 Transformer, 도대체 그게 뭔데 - Transformer 편 (1)에서 이어지는 글입니다. 이전 글에서는 트랜스포머 모델의 등장 배경과 핵심 개념인 Self-Attention, Positional Encoding, Multi-Head Attention에 대해 살펴봤습니다. 이제, 이러한 개념들이 인코더-디코더 구조 안에서 어떻게 연결되어 모델이 동작하는지를 살펴볼 차례입니다. 단순히 구현된 모델을 가져다 쓰는 것이 아닌, 각 구성 요소들이 어떤 역할을 하고 어떻게 상호작용하는 지를 안다면 자신의 환경이나 상황에 맞게 모델을 응용해서 사용할 수 있을 것입니다. 실제로 트랜스포머의 인코더만 사용한 모델, 디코더만 사용한 모델들이 파생되어 강력한 성능을 보이고 있습니다. 구조설명대표 모델인코더..
Data&AI
2025. 2. 15. 14:35