AI 트랜스포머(Transformer)라는 이름의 의미는?
트랜스포머(Transformer)라는 이름의 의미는?
2017년 구글 브레인 팀의 논문 “Attention is All You Need” 에서 처음 등장한 트랜스포머(Transformer)는 그 이름처럼 입력을 변환(transform) 하는 데 초점을 맞춘 구조입니다. 기존의 RNN 계열 모델과 달리, Self-Attention 메커니즘만으로 시퀀스를 처리하는 새로운 접근이었습니다.
왜 Transformer라고 불릴까?
입력 시퀀스의 표현을 변환하기 때문
예: 영어 문장을 프랑스어로 번역
입력을 더 유의미한 표현으로 바꿔서 출력 생성 → 변환(transform) 중심 사고
기존 모델을 완전히 변환한 아키텍처
RNN, LSTM, GRU 등과는 다른 새로운 구조로의 전환
모델 자체의 패러다임을 바꾼다는 의미에서도 ‘변환자’
논문 자체에서 명시한 모델 이름
- “We call our model the Transformer.” (논문 중)
RNN/LSTM vs 트랜스포머 구조 비교
| 항목 | RNN / LSTM | 트랜스포머 |
| 처리 방식 | 순차 처리 | 병렬 처리 가능 |
| 기억 처리 | 그래디언트 소실로 기억 한계 | 장기 의존성 학습 가능 |
| 정보 흐름 | 단방향 처리 | 양방향 또는 자유로운 Attention 흐름 |
트랜스포머는 입력 문장 전체를 한꺼번에 바라보며, 중요한 위치에 Self-Attention을 적용합니다. 그 덕분에 병렬 처리가 가능하고, 장기 의존성 문제도 자연스럽게 해결할 수 있습니다.
마무리
트랜스포머는 단순한 구조 변경이 아니라 시퀀스 처리 방식의 패러다임 전환을 의미합니다. 이름 하나에도 그 철학이 담겨 있는 셈이죠. 오늘날 GPT, BERT, T5 등 다양한 모델들이 트랜스포머를 기반으로 만들어진 것도 이 구조의 강력함을 증명합니다.