일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- yolo webcam
- 강화학습
- object detection
- tf.keras.layers.lambda
- PYTHON
- CV
- 오목 AI
- AI 오목
- cuDNN WARNING
- yolov8 load weights
- 바둑판 만들기
- 오목
- YOLO
- Image Cosine Similarity
- cv2
- 프로그래머스데브코스
- yolov8 커스텀 학습
- Lambda Activation
- 코딩부트캠프
- will not use cuDNN kernels
- 강화 학습 적용
- yolov8
- Actor Critic
- SentenceBERT
- reinforcement learning
- 국비지원교육
- pygame
- Jupyter Notebook
- nlp
- TensorFlow lambda
Archives
- Today
- Total
Silinu's AI Study
Day5 생각 정리 본문
오늘 시도한 기법
- LGBM Regressor
- Cat Boost Regressor
- LSTM + NN
- 생각
- LSTM + NN 모델의 층을 얕게, Learning rate 값을 줄여서 학습해보자.
- 점수가 높게 나온 Regressor들의 하이퍼 파라미터를 조정해보자.
- 실행
- LSTM + NN 모델의 하이퍼 파라미터를 다음과 같이 변경하여 학습하였다.
- Learning Rate: 0.001 → 0.00001
- LSTM Unit: 30 → 10
- Dense: (1024, 512, 256, 128, 1) → (512, 128, 1)
- LSTM + NN 모델의 하이퍼 파라미터를 다음과 같이 변경하여 학습하였다.
-
- Regressor의 하이퍼 파라미터를 다음과 같이 추가 및 조정하였다.
- LGBM Regressor
- max_depth: 100 → 16
- learning_rate, subsample 추가
- CatBoost Regressor
- learning_rate, l2_leaf_reg, bootstrap_type, subsample, eval_metric, metric_period, od_type, od_wait, allow_writing_files 추가
- LGBM Regressor
- Regressor의 하이퍼 파라미터를 다음과 같이 추가 및 조정하였다.
- 결과
- 1567점이 나왔다.
- 789점이 나왔다.
- 분석
- NaN 값은 안 나왔으나, LSTM을 전부 학습하는데 15시간이 걸렸다.
- 만약 또 같은 모델을 사용한다면 묶어서 같이 학습하여 시간을 줄일 수 있는 방법을 찾아야 한다.
- LGBM Regressor의 학습 파라미터를 조정해서 더 좋은 결과를 얻을 수 있도록 다시 도전해야 할 것 같다.
- NaN 값은 안 나왔으나, LSTM을 전부 학습하는데 15시간이 걸렸다.
해결할 리스트
- 다른 사용 가능한 Regressor를 찾아볼 것
- 열 가공 처리를 어떻게 할 지 생각할 것
- 잘 나온 모델들을 가지고 Ensenble 모델을 만들어볼 것
- +(New) LSTM 코드의 시간을 줄일 수 있는 방법을 생각할 것
- +(New) LGBM Regressor의 학습 파라미터를 조정할 것
'Competition > Jeju special product price prediction' 카테고리의 다른 글
Day9 생각 정리 (0) | 2023.11.12 |
---|---|
Day8 생각 정리 (0) | 2023.11.11 |
Day7 생각 정리 (0) | 2023.11.10 |
Day6 생각 정리 (0) | 2023.11.09 |
1차 생각 정리 (0) | 2023.11.07 |