이 다음 영상, 문제에서 k-fold cross validation을 사용할 때, train_set과 test_set을 나누지 않고 한번에 cross_val_score()모델에 돌려서 모델의 performance를 구했는데, 이건 cheating으로 볼 수 있는게 아닌가 여쭤보고 싶습니다. 원래 1. train_test_split을 통해 train_set과 test_set으로 나눈 뒤 2. train_set을 다시 train
+0
2021년 8월 7일
2. train_set을 다시 train데이터와 검증데이터로 나누고 3. 이 검증데이터를 가지고 validation을 진행하여 모델의 performance을 평가하는 것으로 알고있었습니다! 그렇다면 이번 쳅터에서 이 과정을 앞의 1,2번을 제외하고 이 데이터들이 eval_set일 경우를 가정하고, 이 데이터셋에서 model의 performance를 구하는 과정이다! 라고 생각해도 되나요?!
댓글 2개