일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- cv2
- AI 오목
- nlp
- 국비지원교육
- 코딩부트캠프
- Lambda Activation
- yolov8 커스텀 학습
- TensorFlow lambda
- SentenceBERT
- tf.keras.layers.lambda
- object detection
- CV
- Jupyter Notebook
- YOLO
- 오목 AI
- yolo webcam
- 프로그래머스데브코스
- pygame
- Actor Critic
- 오목
- 강화학습
- PYTHON
- reinforcement learning
- yolov8
- 바둑판 만들기
- 강화 학습 적용
- cuDNN WARNING
- will not use cuDNN kernels
- yolov8 load weights
- Image Cosine Similarity
Archives
- Today
- Total
Silinu's AI Study
Day6 생각 정리 본문
오늘 시도한 기법
- LGBM Regressor
- 생각
- 저번에 해결하고자 하는 것처럼 LGBM Regressor의 파라미터를 조정해보자.
- 필요 없어 보이는 열을 제거해보자.
- 실행
- LGBM Regressor의 파라미터를 조정함.
- max_depth: 15 → 30
- Learning rate: 0.05 → 0.001
- n_estimators: 2000 → 5000
- Correlation이 낮은 year, month, day 값을 없애보자.
- LGBM Regressor의 파라미터를 조정함.
-
- 결과
- 807점이 나왔다.
- 818점이 나왔다.
- 분석
- LGBM Regressor의 파라미터 값이 이미 최적이 되어있었기 때문에 오히려 역효과가 나온 것일 수 있다.
- 하이퍼파라미터 말고 다른 방법을 찾아야 한다.
- 아무리 Correlation이 낮다고 해도, 실질적으로 Test 입력 값으로 넣을 때 바뀌는 것들이 year, month, day이므로 섣불리 지울 수 없다.
- 다른 열을 추가하거나 가공하는 방법을 바꿔야 할 것 같다.
- LGBM Regressor의 파라미터 값이 이미 최적이 되어있었기 때문에 오히려 역효과가 나온 것일 수 있다.
해결할 리스트
- 다른 사용 가능한 Regressor를 찾아볼 것
- 열 가공 처리를 어떻게 할 지 생각할 것
- 잘 나온 모델들을 가지고 Ensenble 모델을 만들어볼 것
- LSTM 코드의 시간을 줄일 수 있는 방법을 생각할 것
'Competition > Jeju special product price prediction' 카테고리의 다른 글
Day9 생각 정리 (0) | 2023.11.12 |
---|---|
Day8 생각 정리 (0) | 2023.11.11 |
Day7 생각 정리 (0) | 2023.11.10 |
Day5 생각 정리 (0) | 2023.11.08 |
1차 생각 정리 (0) | 2023.11.07 |