Quantile 회귀에 대한 직관적이고 접근 가능한 설명을 얻고 싶습니다.
결과 대한 간단한 데이터 세트 와 예측 변수 X 1 , X 2 가 있다고 가정 해 봅시다 .
YX1,X2
예를 들어, 나는 .25, .5, .75에서 Quantile 회귀를 실행하고
β0,.25,β1,.25...β2,.75.
입니까
β값은 단순히 주문 발견
y값을 주어진 분위수 근처 /에있는 실시 예에 기초한 선형 회귀 분석을 수행?
또는 Quantile로부터의 거리가 증가함에 따라 모든 샘플이
β추정값에 기여 합니까?
아니면 완전히 다른 것입니까? 아직 접근 가능한 설명을 찾지 못했습니다.
답변
나는 Koenker & Hallock (2001, Journal of Economic Perspectives) 과 Koenker의 시인 교과서를 추천 합니다.
- 시작점은 데이터 세트의 중앙값이 절대 오차의 합을 최소화 한다는 관찰입니다 . 즉, 50 % Quantile은 특정 최적화 문제에 대한 솔루션입니다 (절대 오류의 합계를 최소화하는 값 찾기).
- 이로부터 모든 quantile이 특정 최소화 문제에 대한 해결책, 즉 τ에 의존하는 가중치 로 비대칭 적으로 가중 된 절대 오차 의 합을 최소화하는 것이 쉽다는 것을 쉽게 알 수 있습니다.
τ τ - 마지막으로 회귀 단계를 만들기 위해 예측 변수의 선형 조합으로이 최소화 문제에 대한 솔루션을 모델링하므로 이제 문제는 단일 값이 아니라 회귀 매개 변수 집합을 찾는 것 중 하나입니다.
따라서 직감은 매우 정확합니다. 모든 표본 은 우리가 목표로 하는 Quantile τ 에 따라 비대칭 가중치로 추정에 기여합니다 .
βτ
답변
Quantile 회귀 분석의 기본 아이디어는 분석가가 단지 데이터가 아니라 데이터 배포에 관심이 있다는 사실에서 비롯됩니다. 평균부터 시작하겠습니다.
y=Xβ
E(Y|X=x)=xβ
argminβ(y−xβ)′(y−Xβ)
argminβ|y−Xβ|
|.|
α
Q- 회귀는 데이터의 Quantile을 찾은 다음 해당 하위 집합 (또는 더 어려운 경계)에 선을 맞추는 것과는 조금 다릅니다.
α
β^α=argminβ{α|y−Xβ|I(y>Xβ)+(1−α)|y−Xβ|I(y<Xβ)}.
보시다시피이 영리한 대상 함수는 Quantile을 최적화 문제로 변환하는 것 이상입니다.
βα