Sean variables aleatorias independientes \(X_1,\,X_2,\dots,X_k\) con \(X_i \sim \mathcal N\!\bigl(\mu_i,\sigma_i^{2}\bigr)\). Al definir la suma \(S = \sum_{i=1}^{k} X_i\) obtenemos de nuevo una distribución normal:
\[ S \;\sim\; \mathcal N\!\Bigl( \underbrace{\textstyle\sum_{i=1}^{k}\mu_i}_{\mu_S}, \; \underbrace{\textstyle\sum_{i=1}^{k}\sigma_i^{2}}_{\sigma_S^{2}} \Bigr). \]
La función característica de cada \(X_i\) es \(\varphi_{X_i}(t)= \exp\!\bigl(i\mu_i t-\tfrac12\sigma_i^{2}t^{2}\bigr)\). Al ser independientes, \(\varphi_{S}(t) = \prod_{i=1}^{k} \varphi_{X_i}(t)\), es decir
\[ \varphi_{S}(t)= \exp\!\bigl( i(\sum_{i}\mu_i)t \;-\; \tfrac12(\sum_{i}\sigma_i^{2})t^{2} \bigr), \]
que coincide exactamente con la función característica de una normal con media \(\mu_S\) y varianza \(\sigma_S^{2}\).
Generalización con correlación
Si eliminamos la independencia y reunimos las variables en un vector \(X \sim N(\mu,\,\Sigma)\), la suma \(S = \sum_{i=1}^{k} X_i\) sigue siendo normal, pero su varianza pasa a
\[ \sigma_S^{2} \;=\; \mathbf1^{\mathsf T}\boldsymbol\Sigma\,\mathbf1 \;=\; \sum_{i=1}^{k}\sigma_i^{2} \;+\; 2\!\!\sum_{1\le i< j\le k} \rho_{ij}\,\sigma_i\sigma_j, \]
donde \(\rho_{ij}\) son los coeficientes de correlación. Correlaciones positivas aumentan la varianza; negativas la disminuyen.
Parámetro | Valor |
---|