카테고리 보관물: cstheory

cstheory

몬테카를로 알고리즘에 대한 야오의 미니 맥스 원리 . 그러면 원리는 피PP엑스X\mathcal{X}에이A\mathcal{A}피PP디D\mathcal{D}분 A ∈ A아르

유명한 Yao의 Minimax 원리 는 분포 복잡성과 무작위 복잡성 사이의 관계를 나타냅니다. 하자 유한 집합에 문제가 의 입력과 유한 집합 해결하는 결정적 알고리즘의 . 또한 은 입력 분포를 나타내고 은 의 확률 분포를 나타냅니다 . 그러면 원리는

P

X

A

P

D

A A

R

A

minAAEcost(A,D)maxxXEcost(R,x)for all D and R.


이 증거는 제로섬 게임에 대한 폰 노이만의 미니 맥스 정리에서 직접 따릅니다.

Yao의 원칙은 대부분 Las Vegas 알고리즘 만 다루지 만 다음과 같이 Monte Carlo 알고리즘 으로 일반화 할 수 있습니다 .

12minAAEcost2ϵ(A,D)maxxXEcostϵ(R,x)for all DR and ϵ[0,1/2]


에서

costϵ(,)

은 최대 \ epsilon만큼 확률을 없애는 Monte Carlo 알고리즘의 비용을 나타냅니다

ϵ

.

에서 치아의 원래 종이 , 몬테 카를로 알고리즘에 대한 관계는 증거없이 정리 3에 주어진다. 그것을 증명하는 힌트가 있습니까?



답변

이것은 그의 표기법을 사용하여 Marcos의 답변에 대한 확장 된 주석입니다. 나는 그의 주장에 대한 세부 사항을 잘 이해할 수 없으며 아래 내용은 매우 짧고 쉽습니다.

평균화하여

Aq(A)xd(x)ϵ(A,x)=xd(x)Aq(A)ϵ(A,x)λ.

위의 사실과 Markov의 불평등은

Aβ(2λ)q(A)1/2

합니다.

그래서 우리는 얻는다 :

maxxAq(A)r(A,x)xd(x)Aq(A)r(A,x)=Aq(A)xd(x)r(A,x)Aβ(2λ)q(A)xd(x)r(A,x)(Aβ(2λ)q(A))minAβ(2λ)xd(x)r(A,x)12minAβ(2λ)xd(x)r(A,x)


답변

이것에 대해 시도해 볼 것입니다. Yao의 원래 표기법을 사용하겠습니다. 이런 식으로 그의 논문과 그의 정의와 대조하기가 더 쉬울 것이다.

하자 입력 유한 집합, 그리고하자 일부 입력에 대한 정확한 대답을하지 못할 수 있습니다 결정적 알고리즘의 유한 집합을합니다. 또한하자 하는 경우 정확한 답에 대한 제공 및 , 그렇지. 또한 입력 에 대해 가 수행 한 쿼리 수를 로 표시 하거나 의 의사 결정 트리 깊이를 표시 합니다.A 0 ϵ ( A , x ) = 0 A x ϵ ( A , x ) = 1 r ( A , x ) A x A

I

A0

ϵ(A,x)=0

A

x

ϵ(A,x)=1

r(A,x)

A

x

A

평균 비용 : 확률 분포 감안 에 은 평균 비용 의 알고리즘 인 .I A A 0 C ( A , d ) = x I d ( x ) r ( A , x )

d

I

AA0

C(A,d)=xId(x)r(A,x)

분포 복잡성 : 보자 . 입력에 대한 분포 의 경우, 를 의해 주어진 의 부분 집합으로합니다 . 계산 문제 대한 오차 의 분포 복잡도 는 .d β ( λ ) A 0 β ( λ ) = { A : A A 0 , x I d ( x ) ϵ ( A , x ) λ } λ P F 1 , λ ( P ) = 최대 dA β

λ[0,1]

d

β(λ)

A0

β(λ)={A:AA0,xId(x)ϵ(A,x)λ}

λ

P

F1,λ(P)=maxdminAβ(λ)C(A,d)

λ

-tolerance : 분배 패밀리에 IS -tolerant 경우 .A 0 λ 최대 x IA A 0 q ( A ) ϵ ( A , x ) λ

q

A0

λ

maxxIAA0q(A)ϵ(A,x)λ

예상 비용 : 무작위 알고리즘 경우 는 에서 tolerant 인 확률 분포입니다 . 예상 비용 의 주어진 입력에 대한 이고 .q λ A 0 R x E ( R , x ) = A A 0 q ( A ) r ( A , x )

R

q

λ

A0

R

x

E(R,x)=AA0q(A)r(A,x)

무작위 복잡성 : 하자 . 오류 의 무작위 복잡도 는 입니다.λ F 2 , λ = 최소 R max x I E ( R , x )

λ[0,1]

λ

F2,λ=minRmaxxIE(R,x)

이제 사업을 시작할 준비가되었습니다. 우리가 배포 주어진다 입증 할 입력에와 무작위 알고리즘 (즉, 배포 에 )R q A 0

d

R

q

A0

Montecarlo 알고리즘에 대한 Yao의 Minimax 원리
대 .λ[0,1/2]

maxxIE(R,x)12minAβ(2λ)C(A,d)

λ[0,1/2]

나는 Fich, Meyer auf der Heide, Ragde 및 Wigderson (Lemma 4 참조)이 제시 한 접근법을 따를 것 입니다. 그들의 접근 방식은 Las Vegas 알고리즘에 대한 특성을 나타내지 않지만 (하한에만 해당), 우리의 목적에는 충분합니다. 그들의 증거로부터, 및I

A0

I

주장 1. .

maxxIE(R,x)minAA0C(A,d)

정확한 숫자를 얻기 위해 비슷한 것을 할 것입니다. 무작위 알고리즘 의해 주어진 확률 분포 가 대해 tolerant 라면,

제품군 을R λ A 0 λ

q

R

λ

A0

A0β(2λ)

λmaxxI{AA0q(A)ϵ(A,x)}xId(x)AA0q(a)ϵ(A,x)=AA0q(a)xId(x)ϵ(A,x)minAA0{xId(x)ϵ(A,x)}.

A0

β(2λ)

우리는 그것을 본다

λmaxxI{AA0q(A)ϵ(A,x)}maxxI{Aβ(2λ)q(A)ϵ(A,x)}xId(x)Aβ(2λ)q(a)ϵ(A,x)=Aβ(2λ)q(a)xId(x)ϵ(A,x)minAβ(2λ){12xId(x)ϵ(A,x)},

여기서 두 번째 부등식은 이므로 마지막 부등식은 합을 2로 나눈 값이 보다 클 수없는 의 정의에 의해 주어집니다 . 따라서
β ( 2 λ ) λ max x I { A A 0 q ( A ) ϵ ( A , x ) }1

β(2λ)A0

β(2λ)

λ

maxxI{AA0q(A)ϵ(A,x)}12minAβ(2λ){xId(x)ϵ(A,x)}.

것을주의함으로써 매핑 및 매핑 및 상기 제 1, 이제 우리는 안전 함수 바꿀 수 이상 부등식하여 수득 원하는 불평등.{ 0 , 1 } r N ϵ r ( A , x )

ϵ

{0,1}

r

N

ϵ

r(A,x)


답변