Replies: 4 comments 1 reply
-
요건 면접에서 나올 질문들 위주로 구성했음
|
Beta Was this translation helpful? Give feedback.
-
|
Beta Was this translation helpful? Give feedback.
-
Beta Was this translation helpful? Give feedback.
-
One-Hot Encoding은 NLP에서 안쓰일까?
Tokenization은? 왜 쓰는거지?
트랜스포머 아키텍처의 기본 개념과 주요 구성 요소(예: 어텐션, 포지셔널 인코딩)는?
어텐션 메커니즘에서 Query, Key, Value의 역할은?
트랜스포머의 인코더-디코더 구조가 기계 번역 등 시퀀스-투-시퀀스 문제 해결에 어떻게 기여하는지? Self-Attention은? Scaled Dot-Product Attention의 수식과 각 항목의 역할은?
스케일링 1/root(d_k)는 왜 쓰일까?
멀티헤드 어텐션의 기본 개념과 단일 헤드 어텐션과의 차이는?
여러 개의 어텐션 헤드를 사용함으로써 모델이 다양한 표현 학습을 할 수 있을까?
트랜스포머에서 포지셔널 인코딩의 필요성과 기본 개념은? 간단한 수식 제시
(ㅠㅠ 스터디 끝나고 마저 작성하겠습니다 ㅠㅠ) |
Beta Was this translation helpful? Give feedback.
-
Transformers 구조를 먼저 이해해보자. 왜 이렇게 설계했을까?
Beta Was this translation helpful? Give feedback.
All reactions