목록2024/12/07 (1)
어쩌다데싸
Transformer, 도대체 그게 뭔데 - Attention편
목차 'Attention'이라는 단어를 들으면 무엇이 떠오르나요? 뉴진스의 데뷔곡이 떠오르신다면 삐빅- 정상입니다. 하지만 Transformer를 알게 되면 'Attention'이라는 단어가 노래 제목을 넘어, AI의 핵심 개념 중 하나로 떠오를 것입니다. Transformer는 "Attention Is All You Need"라는 논문에서 처음 등장했죠. 그만큼 Attention은 Transformer를 이해하는 데 있어 아주 중요한 핵심 개념입니다. 이 글을 읽고부터는 Attention 하면 뉴진스와 함께 Transformer 모델이 떠오르길 기대하며 처음 접하는 사람도 이해할 수 있게 기초부터 알아보겠습니다. 1. Transformer 왜 알아야 할까?Transformer는 NLP 처리 분야에서 ..
ML&DL
2024. 12. 7. 17:53