Silinu 2023. 11. 16. 17:32

오늘 시도한 기법

  • Darts

 

  1. 생각
    1. 어제의 Dart 코드의 하이퍼파라미터 값을 변형해보자.
  2. 실행
    1. 다음과 같이 변경하였다.
      1. input_chunk_length: 128 → 28
      2. Batch size: 256 → 128
  3. 결과
    1. 717점이 나왔다.
  4. 분석
    1. 저번 LSTM을 실험할 때 Sequence Length를 210으로 했을 때보다 28로 했을 때 더 성능이 좋았기 때문에 이번에도 128이 기본으로 되어 있던 것을 변경했는데 좋은 결과가 나왔다. 아무래도 28일을 예측하는데 너무 많은 Sequence Length는 필요 없는 것 같다. 오히려 더 줄였을 때의 결과도 궁금하다.
    2. Batch size도 마찬가지로 저번의 경험을 토대로 줄여봤다. 256으로 했을 때 결과가 721이었던 것이 현재 128로 줄임으로써 717로 결과 값이 좋아진 것으로 보아 좀 더 Batch size를 줄여서 실험해 볼 필요가 있다.

해결할 리스트

  • +(New) Darts 모델로 하이퍼 파라미터를 바꿔서 실험해볼 것.
  • 잘 나온 모델들을 가지고 Ensenble 모델을 만들어볼 것