Silinu
2023. 11. 10. 15:53
오늘 시도한 기법
- LGBM Regressor
- LSTM
- 생각
- LGBM Regressor의 파라미터를 조정해보자.
- LSTM을 item끼리 묶어서 학습해보자.
- Item, Corporation, Location 별로 나눠서 LGBM Regressor 학습해보자.
- 실행
- LGBM Regressor의 파라미터를 조정하였다.
- subsample: 0.6 → 0.8
- item끼리 나눠서 학습하였다.
- 각 열별로 나눠서 LGBM Regressor를 학습하였다.
- LGBM Regressor의 파라미터를 조정하였다.
- 결과
- 789점이 나왔다.
- 1419점이 나왔다.
- 913점이 나왔다.
- 분석
- LGBM Regressor의 파라미터 값을 변화한다고 해도 기존의 점수보다 크게 변동되지 않는다.
- 이 모델말고 다른 모델을 찾아야 한다.
- 학습 시간이 줄어서 저번보다는 빠르게 학습했지만, 더 줄일 수 있는 방법을 찾아야 한다. 그리고 성능을 높일 수 있도록 epoch를 늘려야 한다.
- LGBM Regressor는 각 열별로 학습할 때 특징을 제대로 파악할 수 없기 때문에 더 안좋은 결과가 나오지 않았나 생각한다.
- 입력 값을 다른 방식으로 넣을 수 있도록 생각해야 한다.
- LGBM Regressor의 파라미터 값을 변화한다고 해도 기존의 점수보다 크게 변동되지 않는다.
해결할 리스트
- 다른 사용 가능한 Regressor를 찾아볼 것
- 열 가공 처리를 어떻게 할 지 생각할 것
- 잘 나온 모델들을 가지고 Ensenble 모델을 만들어볼 것
- LSTM 코드의 시간을 줄일 수 있는 방법을 생각할 것