일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- cuDNN WARNING
- 강화 학습 적용
- Actor Critic
- Lambda Activation
- SentenceBERT
- yolov8
- tf.keras.layers.lambda
- 국비지원교육
- 바둑판 만들기
- 강화학습
- yolov8 커스텀 학습
- yolo webcam
- cv2
- yolov8 load weights
- nlp
- pygame
- will not use cuDNN kernels
- Image Cosine Similarity
- CV
- 프로그래머스데브코스
- 오목
- Jupyter Notebook
- YOLO
- TensorFlow lambda
- 오목 AI
- object detection
- PYTHON
- 코딩부트캠프
- reinforcement learning
- AI 오목
Archives
- Today
- Total
Silinu's AI Study
Day7 생각 정리 본문
오늘 시도한 기법
- LGBM Regressor
- LSTM
- 생각
- LGBM Regressor의 파라미터를 조정해보자.
- LSTM을 item끼리 묶어서 학습해보자.
- Item, Corporation, Location 별로 나눠서 LGBM Regressor 학습해보자.
- 실행
- LGBM Regressor의 파라미터를 조정하였다.
- subsample: 0.6 → 0.8
- item끼리 나눠서 학습하였다.
- 각 열별로 나눠서 LGBM Regressor를 학습하였다.
- LGBM Regressor의 파라미터를 조정하였다.
- 결과
- 789점이 나왔다.
- 1419점이 나왔다.
- 913점이 나왔다.
- 분석
- LGBM Regressor의 파라미터 값을 변화한다고 해도 기존의 점수보다 크게 변동되지 않는다.
- 이 모델말고 다른 모델을 찾아야 한다.
- 학습 시간이 줄어서 저번보다는 빠르게 학습했지만, 더 줄일 수 있는 방법을 찾아야 한다. 그리고 성능을 높일 수 있도록 epoch를 늘려야 한다.
- LGBM Regressor는 각 열별로 학습할 때 특징을 제대로 파악할 수 없기 때문에 더 안좋은 결과가 나오지 않았나 생각한다.
- 입력 값을 다른 방식으로 넣을 수 있도록 생각해야 한다.
- LGBM Regressor의 파라미터 값을 변화한다고 해도 기존의 점수보다 크게 변동되지 않는다.
해결할 리스트
- 다른 사용 가능한 Regressor를 찾아볼 것
- 열 가공 처리를 어떻게 할 지 생각할 것
- 잘 나온 모델들을 가지고 Ensenble 모델을 만들어볼 것
- LSTM 코드의 시간을 줄일 수 있는 방법을 생각할 것
'Competition > Jeju special product price prediction' 카테고리의 다른 글
Day9 생각 정리 (0) | 2023.11.12 |
---|---|
Day8 생각 정리 (0) | 2023.11.11 |
Day6 생각 정리 (0) | 2023.11.09 |
Day5 생각 정리 (0) | 2023.11.08 |
1차 생각 정리 (0) | 2023.11.07 |