Paper review/Data
2024. 2. 1.
PatchTST 논문 정리
본 글은 [A Time Series is Worth 64 Words: Long-Term Forcasting with Transformer] 논문을 한국어로 정리한 것이다. 저작권은 오직 나에게 있음을 명시한다. Abstract PatchTST는 다변량 시계열 예측과 지도학습을 위한 트랜스포머 기반의 모델이다. 2개의 핵심요소 (1) 시계열을 여러개의 패치로 분할 → 이 패치를 입력 토큰으로 사용 (2) 하나의 채널에 여러개의 패치가 포함되도록 패치분배 → 각 채널마다 고유한 임베딩과 가중치를 사용 (채널 독립성) 3가지의 이점 - patch가 input이 되기에, 임베딩 계산에서 local 정보가 유지된다 - patch가 input이 되기에, 같은 look-back window를 사용했을 때 어텐션맵의 ..