허락하다
X1,X2,...,Xnpdf를 가진 iid 랜덤 변수
fX(x∣θ)=θ(1+x)−(1+θ)I(0,∞)(x)어디
θ>0. UMVUE에게
1θ분산을 계산
나는 UMVUE를 얻는 두 가지 방법에 대해 배웠습니다.
- 크 래머-라오로 바운드 (CRLB)
- 레만-쉐프 테레 옴
나는 두 가지 중 하나를 사용하여 이것을 시도 할 것입니다. 나는 여기서 무슨 일이 일어나고 있는지 완전히 이해하지 못한다는 것을 인정해야하며, 시도한 해결책을 예제 문제에서 근거로 삼고 있습니다. 나 그거있어
fX(x∣θ)전체 1 모수 지수 군으로
h(x)=I(0,∞)
,
c(θ)=θ,
w(θ)=−(1+θ),
t(x)=log(1+x)
이후
w′(θ)=10이 아닌
ΘCRLB 결과가 적용됩니다. 우리는
그래서
그리고 편견이없는 추정기의 CRLB
τ(θ)이다
이후
그런 다음 선형 함수
∑i=1nlog(1+Xi)또는 이와 동등한 선형 함수
1n∑i=1nlog(1+Xi), 기대의 CRLB를 달성하므로 기대의 UMVUE가됩니다. 이후
E(log(1+X))=1θ우리는 UMVUE의
1θ이다
1n∑i=1nlog(1+Xi)자연스러운 매개 변수화를 위해
η=−(1+θ)⇒θ=−(η+1)그때
이것이 유효한 해결책입니까? 더 간단한 접근법이 있습니까? 이 방법은
E(t(x))당신이 추정하려고하는 것과 같습니까?
답변
당신의 추론은 대부분 맞습니다.
샘플의 조인트 밀도
(X1,X2,…,Xn)이다
따라서 우리는 형태로 점수 함수를 표현했습니다
이것은 Cramér-Rao 불평등의 평등 조건입니다.
확인하는 것은 어렵지 않습니다
에서
(1)과
(2)우리는 결론을 내릴 수 있습니다
- 통계
T(X1,X2,…,Xn) 편견이없는 추정량입니다 1/θ .
T Cramér-Rao 불평등의 평등 조건을 충족시킵니다.
이 두 가지 사실은 함께
T의 UMVUE입니다
1/θ.
두 번째 글 머리 기호는 실제로
TCramér-Rao 하한에 도달
1/θ.
실제로, 당신이 보여준 것처럼
이것은 전체 샘플에 대한 정보 기능이
그래서 Cramér-Rao 하한
1/θ따라서 UMVUE의 분산은
여기서 우리는 Cramér-Rao 불평등의 목록을 이용했습니다.
f에 의해 매개 변수
θ통계량 인 경우 (CR 불평등의 규칙적 조건을 유지한다고 가정)
T편견이 없다
g(θ)일부 기능
g그것이 CR 불평등의 평등 조건을 만족한다면, 즉
그런 다음
T의 UMVUE 여야합니다
g(θ). 따라서이 논쟁은 모든 문제에서 작동하지는 않습니다.
또는 Lehmann-Scheffe 정리를 사용하면 다음과 같이 말할 수 있습니다.
T=1n∑i=1nln(1+Xi)의 UMVUE입니다
1/θ편견이 없기 때문에
1/θ분포 제품군에 대한 충분한 통계입니다. 그
T1- 파라미터 지수 패밀리로 샘플의 조인트 밀도의 구조로부터 충분히 경쟁적이다. 그러나 분산
T직접 찾기가 약간 까다로울 수 있습니다.