태그 보관물: variance

variance

편향-분산 분해 : 예측 된 제곱 예측 오차에 대한 항으로 돌이킬 수없는 오차 프로세스를 고려합니다 Y=f(X)+εY=f(X)+ε Y = f(X) + \varepsilon 와 E(ε)=0E(ε)=0\mathbb{E}(\varepsilon)=0

Hastie et al. “통계 학습의 요소” (2009)는 데이터 생성 프로세스를 고려합니다

Y=f(X)+ε


E(ε)=0

Var(ε)=σε2

.

이 시점에서 예상되는 제곱 예측 오차의 다음과 같은 바이어스-분산 분해를 제시합니다.

x0

(p. 223, 공식 7.9) :

Err(x0)=E([y−f^(x0)]2|X=x0)=…=σε2+Bias2(f^(x0))+Var(f^(x0))=Irreducible error+Bias2+Variance.


내 작품에서 나는 지정하지 않는다

f^(⋅)

그러나 임의 예측을

y^

대신 (관련이있는 경우).
질문 : 용어를 찾고 있습니다

Bias2+Variance


보다 정확하게는

Err(x0)−Irreducible error.



답변

나는 환원 가능한 오류를 제안한다 . 이것은 또한 단락에서 채택 된 용어입니다 2.1.1 가레스, 위튼, Hastie & Tibshirani, 통계 학습에 대한 소개 , 기본적으로 그들이 사용하는 사실을 제외하고 ESL + 아주 멋진 R 코드 실험실의 단순화 (인 책 attach그러나 아무도 완벽하지는 않습니다. 아래에이 용어의 장단점이 나와 있습니다.


우선, 우리는 우리가 가정 할뿐 아니라

ϵ

평균 0을 가지고, 또한으로 독립

X

(2.6.1 절, ESL의 식 2.29, 2 참조 ND 판, 12 번째 인쇄). 그럼 물론

ϵ

에서 추정 할 수 없다

X

가설 클래스에 관계없이

H

(모델 군)을 선택하고 가설을 배우기 위해 사용하는 표본의 크기 (모델 추정) 이것은 왜 설명

σϵ2

돌이킬 수없는 오류 라고 합니다 .

유추하여, 오류의 나머지 부분을 정의하는 것이 자연스러워 보입니다.

Err(x0)−σϵ2

, 환원 오류 입니다. 이제이 용어는 다소 혼란스러워 보일 수 있습니다. 사실, 데이터 생성 프로세스에 대한 가정 하에서 우리는 다음을 증명할 수 있습니다.

f(x)=E[Y|X=x]

따라서, 환원성 오차 는 다음의 경우에만 0으로 감소 될 수있다

E[Y|X=x]∈H

(물론 우리는 일관된 추정기가 있다고 가정합니다). 만약

E[Y|X=x]∉H

무한 샘플 크기의 한계에서도 reducible error를 0으로 만들 수 없습니다. 그러나 여전히 샘플 크기를 변경하거나 추정기에서 정규화 (수축)를 도입하여 제거 할 수는 없지만 줄일 수있는 오류의 유일한 부분입니다. 즉, 다른 것을 선택하여

f^(x)

우리의 모델 군에서.

기본적으로, 환원은 의 의미가 아닌 의미 zeroable 반드시 임의적으로 작게하지 않더라도, (! 우웩) 만 감소시킬 수있는 오류의 일부를 의미한다. 또한 원칙적으로이 오류는 확대하여 0으로 줄일 수 있습니다.

H

포함 할 때까지

E[Y|X=x]

. 대조적으로

σϵ2

아무리 커도 줄일 수 없습니다

H

왜냐하면

ϵ⊥X

.


답변

모든 실제 발생이 올바르게 모델링 된 시스템에서 남은 것은 노이즈입니다. 그러나 일반적으로 노이즈보다 데이터에 대한 모델 오류의 구조가 더 많습니다. 예를 들어, 모델링 바이어스와 노이즈만으로는 곡선 잔차, 즉 모델링되지 않은 데이터 구조를 설명하지 않습니다. 설명 할 수없는 분수의 총합은

1−R2

이것은 알려진 구조의 바이어스와 노이즈뿐만 아니라 물리학의 허위 표현으로 구성 될 수 있습니다. 편견에 의해 우리는 평균을 추정 할 때의 오차만을 의미한다면

y

“돌이킬 수없는 오류”는 잡음을 의미하고, 분산은 모델의 시스템 물리적 오류를 의미하며, 바이어스 (제곱)와 시스템 물리적 오류의 합은 특별한 것이 아니며 잡음이 아닌 오류 일뿐입니다. . 특정 상황에서이를 위해 제곱 된 오 등록이라는 용어가 사용될 수 있습니다 (아래 참조). 독립적으로 오류 를 말하고 싶다면

n

의 함수 인 오류 대

n

, 그렇게 말해봐. IMHO는 오류를 모두 되돌릴 수 없기 때문에 비 환원성 속성은 그것이 조명하는 것보다 더 혼란스럽게 할 정도로 오도됩니다.

왜 “환원성”이라는 용어를 좋아하지 않습니까? 그것은 환원공리 에서와 같이 자기-참조 적 타우 톨 로지에서 나온다 . 나는 Russell 1919에 동의 한다. “저는 환원의 공리가 논리적으로 필요하다고 믿는 어떤 이유도 보지 못합니다. 이것이 가능한 모든 세계에서 그것이 사실이라고 말하는 것의 의미입니다. 그러므로 논리는 결함이다 … 모호한 가정이다. “

다음은 불완전한 물리적 모델링으로 인한 구조화 된 잔차의 예입니다. 이것은 스케일링 된 감마 분포, 즉 감마 변이체 (GV)의 보통 최소 제곱 피팅에서 신장 사구체 여과 된 방사성 의약품의 방사능의 혈장 샘플까지의 잔차를 나타낸다 [ 1 ]. 삭제 된 데이터가 많을수록 (

n=36

각 샘플 시간에 대해), 모델 범위가 좋을수록 환원성이 더 많은 샘플 범위에서 저하됩니다.

주목할 것은, 5 분에 첫 번째 샘플을 떨어 뜨릴 때, 초기 샘플을 60 분으로 계속 떨어 뜨리는 것처럼 순차적으로 물리학이 향상된다는 것입니다. 이것은 GV가 결국 약물의 혈장 농도에 대한 좋은 모델을 형성하지만 초기에 다른 일이 진행되고 있음을 보여줍니다.

실제로, 하나가 두 개의 감마 분포와 관련이있는 경우, 하나는 초기, 약물의 순환 전달, 그리고 하나는 기관 제거를 위해, 이러한 유형의 오류, 물리적 모델링 오류는

1%

[ 2 ]. 다음은 그 회선의 예입니다.

후자의 예에서, 제곱근 대 시간 그래프의 경우

y

축 편차는 포아송 노이즈 오류의 의미에서 표준화 된 편차입니다. 이러한 그래프는 적합 오차가 왜곡 또는 뒤틀림으로 인한 이미지 오 등록 인 이미지이다. 그러한 맥락에서, 단지 그 맥락에서만, 오 등록은 바이어스 플러스 모델링 에러이고, 총 에러는 오 등록 + 노이즈 에러이다.


답변