normal-distribution – ¿La distribución normal converge a una distribución uniforme cuando la desviación estándar crece hasta el infinito?

Pregunta:

¿La distribución normal converge a una determinada distribución si la desviación estándar crece sin límites? Me parece que el pdf comienza a verse como una distribución uniforme con límites dados por $ [- 2 \ sigma, 2 \ sigma] $. ¿Es esto cierto?

Respuesta:

Las otras respuestas que ya están aquí hacen un gran trabajo de explicar por qué RVs de Gauss no convergen a nada como la varianza aumenta sin límite, pero quiero señalar una propiedad aparentemente uniforme que una colección de gaussianas tales satisface que creo que podría Sería suficiente para que alguien adivine que se están volviendo uniformes, pero eso resulta no ser lo suficientemente fuerte para concluir eso. $ \ newcommand {\ len} {\ text {len}} $

Considere una colección de variables aleatorias $ \ {X_1, X_2, \ dots \} $ donde $ X_n \ sim \ mathcal N (0, n ^ 2) $. Sea $ A = [a_1, a_2] $ un intervalo fijo de longitud finita, y para algunos $ c \ in \ mathbb R $ defina $ B = A + c $, es decir, $ B $ es $ A $ pero acaba de cambiar por $ c $. Para un intervalo $ I = [i_1, i_2] $ defina $ \ len (I) = i_2-i_1 $ como la longitud de $ I $, y tenga en cuenta que $ \ len (A) = \ len (B) $.

Ahora probaré el siguiente resultado:

Resultado : $ \ vert P (X_n \ en A) – P (x_n \ en B) \ vert \ a 0 $ como $ n \ a \ infty $.

A esto lo llamo uniforme porque dice que la distribución de $ X_n $ tiene cada vez más dos intervalos fijos de igual longitud que tienen la misma probabilidad, sin importar qué tan separados estén. Esa es definitivamente una característica muy uniforme, pero como veremos, esto no dice nada sobre la distribución real de $ X_n $ convergiendo a una uniforme.

Pf: tenga en cuenta que $ X_n = n X_1 $ donde $ X_1 \ sim \ mathcal N (0, 1) $ entonces $$ P (X_n \ in A) = P (a_1 \ leq n X_1 \ leq a_2) = P \ left (\ frac {a_1} {n} \ leq X_1 \ leq \ frac {a_2} n \ right) $$ $$ = \ frac {1} {\ sqrt {2 \ pi}} \ int_ {a_1 / n} ^ {a_2 / n} e ^ {- x ^ 2/2} \, \ text dx. $$ Puedo usar el límite (muy aproximado) que $ e ^ {- x ^ 2/2} \ leq 1 $ para obtener $$ \ frac {1} {\ sqrt {2 \ pi}} \ int_ {a_1 / n} ^ {a_2 / n} e ^ {- x ^ 2/2} \, \ text dx \ leq \ frac {1} {\ sqrt {2 \ pi}} \ int_ {a_1 / n} ^ {a_2 / n} 1 \, \ text dx $$ $$ = \ frac {\ text {len} (A)} {n \ sqrt {2 \ pi}}. $$

Puedo hacer lo mismo con $ B $ para obtener $$ P (X_n \ in B) \ leq \ frac {\ text {len} (B)} {n \ sqrt {2 \ pi}}. $$

Poniendo estos juntos tengo $$ \ left \ vert P (X_n \ in A) – P (X_n \ in B) \ right \ vert \ leq \ frac {\ sqrt 2 \ text {len} (A)} {n \ sqrt {\ pi}} \ to 0 $$ como $ n \ to \ infty $ (aquí estoy usando la desigualdad del triángulo).

$ \ cuadrado $

¿En qué se diferencia esto de la convergencia de $ X_n $ en una distribución uniforme? Acabo de demostrar que las probabilidades dadas a dos intervalos fijos cualesquiera de la misma longitud finita se acercan cada vez más, e intuitivamente eso tiene sentido a medida que las densidades se "aplanan" desde las perspectivas de $ A $ y $ B $.

Pero para que $ X_n $ converja en una distribución uniforme, necesitaría $ P (X_n \ in I) $ para dirigirse a ser proporcional a $ \ text {len} (I) $ para cualquier intervalo $ I $, y eso es algo muy diferente porque esto debe aplicarse a cualquier $ I $, no solo a uno arreglado de antemano (y como se mencionó en otra parte, esto tampoco es posible para una distribución con soporte ilimitado).

Leave a Comment

Your email address will not be published.

Scroll to Top

istanbul avukat

-

web tasarım