Silinu
2023. 11. 16. 17:32
오늘 시도한 기법
- Darts
- 생각
- 어제의 Dart 코드의 하이퍼파라미터 값을 변형해보자.
- 실행
- 다음과 같이 변경하였다.
- input_chunk_length: 128 → 28
- Batch size: 256 → 128
- 다음과 같이 변경하였다.
- 결과
- 717점이 나왔다.
- 분석
- 저번 LSTM을 실험할 때 Sequence Length를 210으로 했을 때보다 28로 했을 때 더 성능이 좋았기 때문에 이번에도 128이 기본으로 되어 있던 것을 변경했는데 좋은 결과가 나왔다. 아무래도 28일을 예측하는데 너무 많은 Sequence Length는 필요 없는 것 같다. 오히려 더 줄였을 때의 결과도 궁금하다.
- Batch size도 마찬가지로 저번의 경험을 토대로 줄여봤다. 256으로 했을 때 결과가 721이었던 것이 현재 128로 줄임으로써 717로 결과 값이 좋아진 것으로 보아 좀 더 Batch size를 줄여서 실험해 볼 필요가 있다.
해결할 리스트
- +(New) Darts 모델로 하이퍼 파라미터를 바꿔서 실험해볼 것.
- 잘 나온 모델들을 가지고 Ensenble 모델을 만들어볼 것