probability – Mostrar $ Z_i $ son independientes si $ Z_1 = \ sum_ {i = 1} ^ {n + 1} X_i $ y $ Z_i = \ frac {X_i} {\ sum_ {j = 1} ^ iX_j}, i \ ge2 $ cuando $ X_i \ sim \ text {G} (\ alpha, p_i) $

Pregunta:

Sean $ X_i \ sim \ text {Gamma} (\ alpha, p_i), i = 1,2, …, n + 1 $ variables aleatorias independientes.

Defina $ Z_1 = \ sum_ {i = 1} ^ {n + 1} X_i $ y $ Z_i = \ frac {X_i} {\ sum_ {j = 1} ^ iX_j}, \ quad i = 2,3, .. ., n + 1 $ . Luego demuestre que $ Z_1, Z_2, …, Z_ {n + 1} $ se distribuyen de forma independiente.

La densidad conjunta de $ (X_1, …, X_ {n + 1}) $ viene dada por

$$ f _ {\ bf X} (x_1, …, x_ {n + 1}) = \ left [\ frac {\ alpha ^ {\ sum_ {i = 1} ^ {n + 1} p_i}} { \ prod_ {i = 1} ^ {n + 1} \ Gamma (p_i)} \ exp \ left (- \ alpha \ sum_ {i = 1} ^ {n + 1} x_i \ right) \ prod_ {i = 1 } ^ {n + 1} x_i ^ {p_i-1} \ right] \ mathbf I_ {x_i> 0} \ quad, \ alpha> 0, p_i> 0 $$

Transformamos $ \ mathbf X = (X_1, \ cdots, X_ {n + 1}) \ mapsto \ mathbf Z = (Z_1, \ cdots, Z_ {n + 1}) $ tal que

$ Z_1 = \ sum_ {i = 1} ^ {n + 1} X_i $ y $ Z_i = \ frac {X_i} {\ sum_ {j = 1} ^ iX_j}, \ quad i = 2,3, … , n + 1 $

$ \ implica x_ {n + 1} = z_1z_ {n + 1}, $

$ \ qquad x_n = z_1z_n (1-z_ {n + 1}), $

$ \ qquad x_ {n-1} = z_1z_ {n-1} (1-z_n) (1-x_ {n + 1}), $

$ \ qquad \ vdots $

$ \ qquad x_3 = z_1z_3 \ prod_ {j = 4} ^ {n + 1} (1-z_j) $

$ \ qquad x_2 = z_1z_2 \ prod_ {j = 3} ^ {n + 1} (1-z_j) $

$ \ qquad x_1 = z_1 \ prod_ {j = 2} ^ {n + 1} (1-z_j) $ , donde $ 0 <z_1 <\ infty $ y $ 0 <z_i <1, \ quad i = 2,3, \ cdots, n + 1 $

El jacobiano de la transformación es $ J = \ dfrac {\ partial (x_1, …, x_ {n + 1})} {\ partial (z_1, …, z_ {n + 1})} = \ det \ begin {pmatrix} \ frac {\ parcial x_1} {\ parcial z_1} y \ cdots & \ frac {\ parcial x_1} {\ parcial z_ {n + 1}} \\ & \ ddots \\\ frac {\ parcial x_ {n + 1}} {\ z_1} parcial & \ cdots & \ frac {\ x_ parcial {n + 1}} {\ z_ parcial {n + 1}} \\\ end {pmatrix} $

Realizando la operación $ R_1 '= \ sum_1 ^ {n + 1} R_i $ , obtenemos $ J $ como determinante de

$ \ begin {pmatrix} 1 & 0 & 0 & \ cdots & 0 & 0 \\ z_2 \ prod_3 ^ {n + 1} (1-z_j) & z_1 \ prod_3 ^ {n + 1} (1-z_j) \\ z_3 \ prod_4 ^ {n + 1 } (1-z_j) & 0 & z_1 \ prod_4 ^ {n + 1} (1-z_j) \\ &&& \ ddots \\ z_n (1-z_ {n + 1}) & 0 & 0 & \ cdots & z_1 (1-z_ {n + 1 }) & -z_1z_n \\ z_ {n + 1} & 0 & 0 & \ cdots & 0 & z_1 \\\ end {pmatrix} $

que es igual a $ z_1 ^ n (1-z_3) (1-z_4) ^ 2 … (1-z_n) ^ {n-2} (1-z_ {n + 1}) ^ {n-1} $ .

Después de algunas simplificaciones, obtenemos la densidad conjunta de $ \ bf Z $ como

$ f _ {\ bf Z} (z_1, …, z_ {n + 1}) = \ prod_ {i = 1} ^ {n + 1} f_ {Z_i} (z_i) $

donde $ Z_1 \ sim \ text {Gamma} (\ alpha, \ sum_1 ^ {n + 1} p_i), $

$ \ qquad Z_2 \ sim \ text {Beta} _1 (p_1, p_2), $

$ \ qquad Z_3 \ sim \ text {Beta} _1 (p_3, p_1 + p_2), $

$ \ qquad \ vdots $

$ \ qquad Z_ {n + 1} \ sim \ text {Beta} _1 (p_ {n + 1}, \ sum_1 ^ np_i) $ ,

con $ 0 <z_1 <\ infty $ y $ 0 <z_i <1, \ quad i = 2,3, \ cdots, n + 1 $ ,

$ \ alpha> 0 $ y $ p_i> 0 $ para $ i = 1,2, …, n + 1 $ .


No hace falta decir que encontrar las soluciones inversas $ x_i $ y evaluar el jacobiano fue engorroso y consumió mucho tiempo. Además de hacer el trabajo, también determina las distribuciones de los $ Z_i $ .

¿Existe alguna forma más sencilla de mostrar solo la independencia de los $ Z_i $ ?

Respuesta:

Probaré la declaración equivalente.

Dejemos que $ n \ ge 1 $, $ X_k \ sim \ Gamma (\ alpha, p_k) $, $ k = 1, \ dots, n + 1 $, sean independientes. Denote $ S_k = X_1 + \ dots + X_k $, $ k = 1, \ dots, n + 1 $; $ R_k = \ frac {S_k} {S_ {k + 1}} $, $ k = 1, \ dots, n $. Entonces $ R_1 $, $ R_2 $, $ \ dots $, $ R_ {n} $ y $ S_ {n + 1} $ son independientes y $ S_ {n + 1} \ sim \ Gamma (\ alpha, p_1 + \ puntos + p_ {n + 1}) $.

Observación En notación OP, $ Z_1 = S_ {n + 1} $, $ Z_k = 1 – R_ {k-1} $, $ k = 2, \ dots, n + 1 $.

Prueba . $ n = 1 $ es fácil (y bien conocido).

$ n-1 \ Flecha derecha n $.

Por hipótesis de inducción e independencia, los vectores $ \ mathbf {R} = (R_1, \ dots, R_ {n-1}) $ y $ (S_ {n}, X_ {n + 1}) $ son independientes. Por lo tanto, los vectores $ \ mathbf {R} $ y $ \ big (\ frac {S_ {n}} {S_ {n} + X_ {n + 1}}, S_ {n} + X_ {n + 1} \ grande) = (R_n, S_ {n + 1}) $ son independientes. Ambos vectores tienen componentes independientes: $ \ mathbf R $ por hipótesis de inducción, $ (R_n, S_ {n + 1}) $ por base de inducción. Por tanto, sus componentes son variables aleatorias independientes.


No es ningún problema incluir la distribución de $ R_n $ en la declaración, la prueba no cambiará. La distribución de $ S_n $ ya está ahí: la necesito para decir que la independencia de $ R_n $ y $ S_ {n + 1} $ se deriva de la base de inducción.

Leave a Comment

Your email address will not be published.

Scroll to Top

istanbul avukat

-

web tasarım