![](https://tistory1.daumcdn.net/tistory_admin/blogs/image/category/new_ico_5.gif)
⭐ML>DL>LLM의 큰 흐름 딥러닝모델에서의 필수적인 기능인 ATTENTION이란 무엇인가?쉽게 말해서 높은 가중치를 부여하는 것이다. 트랜스포머 모델, BERT, GPT-출처https://ffighting.net/deep-learning-basic/%eb%94%a5%eb%9f%ac%eb%8b%9d-%ed%95%b5%ec%8b%ac-%ea%b0%9c%eb%85%90/attention-and-self-attention-in-deep-learning/ Self Attention 설명 : 최소한의 수식과 관련 논문으로 쉽게 이해하기다양한 일상 생활과 딥러닝의 사례를 통해 Attention의 개념을 설명합니다. 언어 모델과 비전 모델에 적용된 Self Attention의 원리를 최소한의 수식으로 쉽게 이해해..