728x90
728x90
K-fold Cross Validation은 기존의 학습-평가(train-test) 데이터 나누기의 상위 버전으로,
1) 한 개의 데이터셋을 k개로 나누고
2) n/k번째 세트를 제외한 부분을 재사용해서
3) 학습과 평가를 k번 반복하여 각 회차의 에러평균을 구해
4) 에러값이 최소인 모델을 최종모델로 선택하는
교차 검정이다.
728x90
728x90
'데이터베이스 DB' 카테고리의 다른 글
dplyr 패키지 용도, 각 함수가 하는 일 (0) | 2020.03.20 |
---|---|
R working directory가 중요한 이유: setwd() 함수 (0) | 2020.03.20 |
모델링 최적화와 일반화의 차이 (0) | 2020.03.19 |
손실함수 loss function (0) | 2020.03.19 |
Restrictive 모델 vs Flexible 모델 (0) | 2020.03.19 |
댓글