Transformer — 8명의 구글 연구자가 바꾼 AI의 모든 것
2017년, 구글의 8명의 연구자가 발표한 "Attention Is All You Need"는 AI 역사의 분수령이 된 논문이다. 기존 번역·언어 처리 모델은 문장을 한 단어씩 순서대로 처리하는 순환 신경망(RNN)에 의존했다.
본문 준비 중
STEP 3에서 200편 전체 본문이 들어갑니다.
2017년, 구글의 8명의 연구자가 발표한 "Attention Is All You Need"는 AI 역사의 분수령이 된 논문이다. 기존 번역·언어 처리 모델은 문장을 한 단어씩 순서대로 처리하는 순환 신경망(RNN)에 의존했다.