/ 99
18
고찰 및향후 연구
V
●어텐션이 정말 해석 가능한가?
- Attention-based and gradient-based methods demonstrate poor correlation and shuffling the attention weights does not
change the final output (Jain and Wallace, 2019).
●아직까지는 Sequence-to-sequence classification을위한Local explanation 기법이 만들어지지 않았음
-EEG나Human activity recognition 데이터셋에 Local explanation 기법 대안으로 사용될 수있을 것
●Attention을추가함으로써 모델 성능을 증가하는지 확인하기 위해선 더어려운 데이터셋에 적용해봐야 할 것
●해석이 용이한 Toy 데이터셋이나 Simulated 데이터셋에 적용하여 Attention이 정확한지 확인해야 할 것
●슬라이딩 윈도우보다 작은 시퀀스도 받을 수 있도록 Masking 레이어를 추가할 것