배치 정규화 는 심층 신경망에서 상당한 성능 향상으로 인정되었습니다. 인터넷에 많은 자료가 활성화별로이를 구현하는 방법을 보여줍니다. 나는 이미 행렬 대수를 사용하여 backprop를 구현했으며, 고밀도 언어 ( Rcpp
고밀도 행렬 곱셈 에 (그리고 결국 GPU)에 의존하는 동안 )에서 모든 것을 추출하고 for
-loops를 사용하면 코드가 느려질 것입니다 대단한 고통에 더해
배치 정규화 함수는
.
xp 는활성화되기 전의 p 번째 노드입니다.
γ 와 β 는 스칼라 파라미터입니다
μxp 및 σxp 평균 및 SD있는 xp . (분산의 제곱근에 퍼지 계수와 일반적으로 퍼지 계수가 사용됩니다. 압축을 위해 0이 아닌 요소를 가정 해 봅시다)
매트릭스 형태에서, 전체 층에 대한 배치 정규화는
.
X 는 N×p
1N 은 1 의 열 벡터입니다.
γ 및 β 는 이제계층 별 정규화 파라미터의행 p 벡터이다- 및 σ X 는 N × p 행렬이며, 각 열은 열별평균 및 표준 편차의 N- 벡터입니다.
μX σX N×p N - 는 Kronecker 제품이고 ⊙ 는 요소 별 (Hadamard) 제품입니다
⊗ ⊙
배치 정규화가없고 연속적인 결과가없는 매우 간단한 단층 신경망은
어디
- 은 p 1 × p 2
Γ1 p1×p2 - 는 p 2 × 1
Γ2 p2×1 - 는 활성화 함수입니다
a(.)
손실의 경우 다음, 기울기는
∂ R
어디
V=a(XΓ1)
ϵ^=y−y^
배치 정규화 하에서,
순은
또는
y = a ( ( γ ⊗ 1 N ) ⊙ ( X Γ 1 – μ X Γ 1 ) ⊙ σ – 1 X Γ 1 + ( β ⊗ 1 N ) ) Γ 2
Hadamard 및 Kronecker 제품의 파생 상품을 계산하는 방법을 모르겠습니다. 크로네 커 (Kronecker) 제품의 주제에 관한 문헌 은 상당히 비현실적이다.
행렬 프레임 워크 내에 , ∂ R / ∂ β 및 ∂ R / ∂ Γ 1 을 계산하는 실용적인 방법이 있습니까? 노드 별 계산에 의존하지 않고 간단한 표현?
∂R/∂γ∂R/∂β
∂R/∂Γ1
업데이트 1 :
∂R/∂β
set.seed(1)
library(dplyr)
library(foreach)
#numbers of obs, variables, and hidden layers
N <- 10
p1 <- 7
p2 <- 4
a <- function (v) {
v[v < 0] <- 0
v
}
ap <- function (v) {
v[v < 0] <- 0
v[v >= 0] <- 1
v
}
# parameters
G1 <- matrix(rnorm(p1*p2), nrow = p1)
G2 <- rnorm(p2)
gamma <- 1:p2+1
beta <- (1:p2+1)*-1
# error
u <- rnorm(10)
# matrix batch norm function
b <- function(x, bet = beta, gam = gamma){
xs <- scale(x)
gk <- t(matrix(gam)) %x% matrix(rep(1, N))
bk <- t(matrix(bet)) %x% matrix(rep(1, N))
gk*xs+bk
}
# activation-wise batch norm function
bi <- function(x, i){
xs <- scale(x)
gk <- t(matrix(gamma[i]))
bk <- t(matrix(beta[i]))
suppressWarnings(gk*xs[,i]+bk)
}
X <- round(runif(N*p1, -5, 5)) %>% matrix(nrow = N)
# the neural net
y <- a(b(X %*% G1)) %*% G2 + u
그런 다음 파생 상품을 계산하십시오.
# drdbeta -- the matrix way
drdb <- matrix(rep(1, N*1), nrow = 1) %*% (-2*u %*% t(G2) * ap(b(X%*%G1)))
drdb
[,1] [,2] [,3] [,4]
[1,] -0.4460901 0.3899186 1.26758 -0.09589582
# the looping way
foreach(i = 1:4, .combine = c) %do%{
sum(-2*u*matrix(ap(bi(X[,i, drop = FALSE]%*%G1[i,], i)))*G2[i])
}
[1] -0.44609015 0.38991862 1.26758024 -0.09589582
β⊗1N
m
n
p
q
A
B
T
# playing with the kroneker derivative rule
A <- t(matrix(beta))
B <- matrix(rep(1, N))
diag(rep(1, ncol(A) *ncol(B))) %*% diag(rep(1, ncol(A))) %x% (B) %x% diag(nrow(A))
[,1] [,2] [,3] [,4]
[1,] 1 0 0 0
[2,] 1 0 0 0
snip
[13,] 0 1 0 0
[14,] 0 1 0 0
snip
[28,] 0 0 1 0
[29,] 0 0 1 0
[snip
[39,] 0 0 0 1
[40,] 0 0 0 1
γ
Γ1
β⊗1
업데이트 2
∂R/∂Γ1
∂R/∂γ
vec()
w⊙XΓ1
Γ1
w≡(γ⊗1)⊙σXΓ1−1
w⊙X
w
X
과에서 이 , 그
업데이트 3
여기에서 진보하고 있습니다. 나는 지난 밤 2시에이 아이디어로 일어났다. 수학은 수면에 좋지 않습니다.
∂R/∂Γ1
w≡(γ⊗1)⊙σXΓ1−1
“stub”≡a′(b(XΓ1))⊙−2ϵ^Γ2T
i
j
I
그리고 실제로는 :
stub <- (-2*u %*% t(G2) * ap(b(X%*%G1)))
w <- t(matrix(gamma)) %x% matrix(rep(1, N)) * (apply(X%*%G1, 2, sd) %>% t %x% matrix(rep(1, N)))
drdG1 <- t(X) %*% (stub*w)
loop_drdG1 <- drdG1*NA
for (i in 1:7){
for (j in 1:4){
loop_drdG1[i,j] <- t(X[,i]) %*% diag(w[,j]) %*% (stub[,j])
}
}
> loop_drdG1
[,1] [,2] [,3] [,4]
[1,] -61.531877 122.66157 360.08132 -51.666215
[2,] 7.047767 -14.04947 -41.24316 5.917769
[3,] 124.157678 -247.50384 -726.56422 104.250961
[4,] 44.151682 -88.01478 -258.37333 37.072659
[5,] 22.478082 -44.80924 -131.54056 18.874078
[6,] 22.098857 -44.05327 -129.32135 18.555655
[7,] 79.617345 -158.71430 -465.91653 66.851965
> drdG1
[,1] [,2] [,3] [,4]
[1,] -61.531877 122.66157 360.08132 -51.666215
[2,] 7.047767 -14.04947 -41.24316 5.917769
[3,] 124.157678 -247.50384 -726.56422 104.250961
[4,] 44.151682 -88.01478 -258.37333 37.072659
[5,] 22.478082 -44.80924 -131.54056 18.874078
[6,] 22.098857 -44.05327 -129.32135 18.555655
[7,] 79.617345 -158.71430 -465.91653 66.851965
업데이트 4
∂R/∂γ
XΓ~≡(XΓ−μXΓ)⊙σXΓ−1
γ~≡γ⊗1N
이전과 마찬가지로 체인 규칙은 까지
그것은 일종의 일치합니다.
drdg <- t(scale(X %*% G1)) %*% (stub * t(matrix(gamma)) %x% matrix(rep(1, N)))
loop_drdg <- foreach(i = 1:4, .combine = c) %do% {
t(scale(X %*% G1)[,i]) %*% (stub[,i, drop = F] * gamma[i])
}
> drdg
[,1] [,2] [,3] [,4]
[1,] 0.8580574 -1.125017 -4.876398 0.4611406
[2,] -4.5463304 5.960787 25.837103 -2.4433071
[3,] 2.0706860 -2.714919 -11.767849 1.1128364
[4,] -8.5641868 11.228681 48.670853 -4.6025996
> loop_drdg
[1] 0.8580574 5.9607870 -11.7678486 -4.6025996
γ
본인의 질문에 답변 한 것 같지만 본인이
맞는지 잘 모르겠습니다. 이 시점에서 나는 내가 함께 해킹 한 것을 엄격하게 증명 (또는 반증)하는 대답을 받아 들일 것이다.
while(not_answered){
print("Bueller?")
Sys.sleep(1)
}
답변
Γ=diag(γ)
ΣX−1/2=diag(σX1−1,σX2−1,…)
eN
−2ϵ^(Γ2T⊗I)=vec(−2ϵ^Γ2T)T
JX(a)=diag(vec(a′(b(XΓ1))))
vec(AXB)=(BT⊗A)vec(X)
W=a′(b(XΓ1))⊙−2ϵ^Γ2T
K
Np×p
dΓi≠j=0
b
γi
γi
Γ1
w
ΣX
μX
X