AbstractPTv1에서 사용한 group vector attention보다 더 효과적인 vector attention을 사용하였다.새로운 group weight encoding layer를 갖춘 group vector attention을 효과적으로 구현하였다.position encoding 방식을 수정하여 position information를 강화한다.새로운 partition-based pooling 방식을 제안한다.IntroductionPTv1은 self-attention network를 도입하였다.vector attention과 U-Net 스타일의 encoder-decoder를 결합하여 classification, part segmentation, semantic segmentation에서 좋은..