language model1 AI가 바꿔줄 미래에 대한 준비 [4탄] 오늘의 목차 BERT란? Transformer Model Architecture. Attention 메커니즘 1. BERT란? BERT(Bidirectional Encoder Representations from Transformers)는 구글 연구원들이 2018년에 제안한 언어 모델입니다. 이 모델은 이전 언어 모델과는 달리 모든 레이어에서 좌우 양방향으로 학습하여 사전 훈련된 딥 양방향 표현을 만들어냅니다. 이를 통해 사전 훈련된 BERT 모델은 다양한 자연어 처리 작업에서 최고 성능을 발휘하며, 현재까지 150개 이상의 논문에서 기본적인 모델로 사용되고 있습니다 BERT(Bidirectional Encoder Representations from Transformers)는 자연어 처리(NLP) 분야.. 2023. 4. 13. 이전 1 다음