머신 러닝, 더 빠르고 정확하게모델 평가와 하이퍼파라미터 고르기k겹 교차 검증 노트

Q

테스트 셋의 정보누설

조회 532

좋아요 4

2020년 8월 1일




A
1개의 답변이 있어요



2020년 8월 2일

댓글 2

2021년 8월 7일
이 다음 영상, 문제에서 k-fold cross validation을 사용할 때, train_set과 test_set을 나누지 않고 한번에 cross_val_score()모델에 돌려서 모델의 performance를 구했는데, 이건 cheating으로 볼 수 있는게 아닌가 여쭤보고 싶습니다. 원래 1. train_test_split을 통해 train_set과 test_set으로 나눈 뒤 2. train_set을 다시 train
2021년 8월 7일
2. train_set을 다시 train데이터와 검증데이터로 나누고 3. 이 검증데이터를 가지고 validation을 진행하여 모델의 performance을 평가하는 것으로 알고있었습니다! 그렇다면 이번 쳅터에서 이 과정을 앞의 1,2번을 제외하고 이 데이터들이 eval_set일 경우를 가정하고, 이 데이터셋에서 model의 performance를 구하는 과정이다! 라고 생각해도 되나요?!

(주) 코드잇

대표강영훈

개인정보보호책임자강영훈

이메일support@codeit.kr

사업자 번호313-86-00797

통신판매업제 2019-서울중구-1034 호

주소서울특별시 중구 청계천로 100 시그니쳐타워 동관 10층 코드잇