선형 SVM 분류를 수행 할 때, 예를 들어 평균을 빼고 표준 편차로 나눈 후 훈련 데이터를 정규화하고 나중에 시험 데이터를 훈련 데이터의 평균 및 표준 편차로 스케일링하는 것이 도움이됩니다. 이 프로세스가 분류 성능을 크게 변경하는 이유는 무엇입니까?
답변
예를 통해 더 명확하게 할 수 있다고 생각합니다. X1과 X2의 두 입력 벡터가 있다고 가정 해 봅시다. X1의 범위는 (0.1 ~ 0.8)이고 X2의 범위는 (3000 ~ 50000)입니다. 이제 SVM 분류기는 X1-X2 평면에있는 선형 경계가됩니다. 내 주장은 선형 결정 경계의 기울기는 X1과 X2의 범위에 의존하지 말고 대신 점의 분포에 의존해야한다는 것입니다.
이제 (0.1, 4000)과 (0.8, 4000)을 예측해 보자. 함수 값의 차이는 거의 없으므로 SVM은 X1 방향의 점에 대한 민감도가 낮기 때문에 정확도가 떨어집니다.
답변
SVM은 분리 평면과지지 벡터 사이의 거리를 최대화하려고합니다. 한 피쳐 (즉,이 공간의 한 치수)에 매우 큰 값이 있으면 거리를 계산할 때 다른 피쳐가 지배적입니다. 모든 피처의 크기를 조정하면 (예 : [0, 1]) 거리 메트릭에 동일한 영향을 미칩니다.