[1] 0.8
[1] 0.2
E[X] = 0.8
Var(X) = 0.16
Variables Aleatorias y Distribuciones de Probabilidad
Una variable aleatoria \(X\) es una función que asigna un valor numérico a cada resultado de un experimento aleatorio:
\[X : \Omega \longrightarrow \mathbb{R}\]
Tip
Cuando realizamos un examen clínico, el resultado es incierto antes de hacerlo. La variable aleatoria es el mecanismo que convierte ese resultado en un número con el que podemos operar matemáticamente.
| Experimento | Variable aleatoria \(X\) | Valores posibles |
|---|---|---|
| Tomar la presión arterial | Presión sistólica (mmHg) | \([0, +\infty)\) |
| Revisar una sala de urgencias | Número de pacientes | \(0, 1, 2, \ldots\) |
| Aplicar un tratamiento | Tiempo de recuperación (días) | \((0, +\infty)\) |
| Realizar prueba diagnóstica | Resultado (positivo/negativo) | \(\{0, 1\}\) |
| Controlar UCI en un turno | Camas ocupadas | \(0, 1, \ldots, n\) |
Toma valores contables (finitos o infinito numerable):
\[X \in \{x_1, x_2, x_3, \ldots\}\]
Ejemplos clínicos:
Toma valores en un intervalo de \(\mathbb{R}\) (infinito no numerable):
\[X \in (a, b) \subseteq \mathbb{R}\]
Ejemplos clínicos:
Para cualquier variable aleatoria \(X\) (discreta o continua), la función de distribución acumulada es:
\[\boxed{F(x) = P(X \leq x), \quad x \in \mathbb{R}}\]
Para una variable aleatoria discreta \(X\), la función de probabilidad puntual se define como:
\[\boxed{p(x) = P(X = x)}\]
En una unidad de hospitalización se registra el número de eventos adversos leves \(X\) durante un turno de 8 horas:
| \(x\) | 0 | 1 | 2 | 3 | 4 |
|---|---|---|---|---|---|
| \(p(x)\) | 0.30 | 0.35 | 0.20 | 0.10 | 0.05 |
Verificación:
\[\sum p(x) = 0.30 + 0.35 + 0.20 + 0.10 + 0.05 = 1 \checkmark\]
Con la distribución de eventos adversos:
\[P(X \geq 2) = p(2) + p(3) + p(4) = 0.20 + 0.10 + 0.05 = \mathbf{0.35}\]
\[P(1 \leq X \leq 3) = p(1) + p(2) + p(3) = 0.35 + 0.20 + 0.10 = \mathbf{0.65}\]
\[P(X < 2) = p(0) + p(1) = 0.30 + 0.35 = \mathbf{0.65}\]
Para una variable aleatoria continua \(X\), la función de densidad de probabilidad \(f(x)\) satisface:
\[\boxed{P(a \leq X \leq b) = \int_a^b f(x)\, dx}\]
El tiempo de recuperación \(X\) (en días) tras una cirugía de rodilla sigue una distribución con densidad:
\[f(x) = \frac{1}{5} e^{-x/5}, \quad x > 0\]
¿Cuál es la probabilidad de recuperarse en menos de 3 días?
\[P(X < 3) = \int_0^3 \frac{1}{5} e^{-x/5}\, dx = 1 - e^{-3/5} \approx 0.451\]
¿Y entre 5 y 10 días?
\[P(5 < X < 10) = e^{-1} - e^{-2} \approx 0.368 - 0.135 = 0.233\]
El valor esperado (o media) de una variable aleatoria \(X\) mide su valor promedio en el largo plazo.
\[\boxed{E[X] = \sum_{x} x \cdot p(x)}\]
\[\boxed{E[X] = \int_{-\infty}^{+\infty} x \cdot f(x)\, dx}\]
Interpretación clínica: Si observamos el mismo proceso clínico muchas veces, \(E[X]\) es el promedio de los resultados que obtendríamos.
Retomando la distribución de eventos adversos por turno:
| \(x\) | 0 | 1 | 2 | 3 | 4 |
|---|---|---|---|---|---|
| \(p(x)\) | 0.30 | 0.35 | 0.20 | 0.10 | 0.05 |
\[E[X] = 0(0.30) + 1(0.35) + 2(0.20) + 3(0.10) + 4(0.05)\]
\[E[X] = 0 + 0.35 + 0.40 + 0.30 + 0.20 = \mathbf{1.25}\]
Interpretación: En promedio se producen 1.25 eventos adversos leves por turno de 8 horas en esta unidad.
Sea \(X\), \(Y\) variables aleatorias y \(a\), \(b\) constantes:
La frecuencia cardíaca de un paciente en reposo tiene \(E[FC] = 72\) lpm.
Si medimos en otra unidad: \(FC^* = 0.5 \cdot FC + 10\) (escala relativa):
\[E[FC^*] = 0.5 \cdot E[FC] + 10 = 0.5 \cdot 72 + 10 = \mathbf{46}\]
Si registramos la suma de frecuencias cardíacas de 3 pacientes:
\[E[FC_1 + FC_2 + FC_3] = E[FC_1] + E[FC_2] + E[FC_3] = 72 + 72 + 72 = \mathbf{216}\]
La varianza mide la dispersión de \(X\) alrededor de su media \(\mu = E[X]\):
\[\boxed{Var(X) = E\left[(X - \mu)^2\right]}\]
\[\boxed{Var(X) = E[X^2] - (E[X])^2}\]
\[\sigma_X = \sqrt{Var(X)}\]
La desviación estándar tiene las mismas unidades que \(X\), lo que facilita su interpretación clínica.
| \(x\) | \(p(x)\) | \(x^2\) | \(x^2 \cdot p(x)\) |
|---|---|---|---|
| 0 | 0.30 | 0 | 0.000 |
| 1 | 0.35 | 1 | 0.350 |
| 2 | 0.20 | 4 | 0.800 |
| 3 | 0.10 | 9 | 0.900 |
| 4 | 0.05 | 16 | 0.800 |
\[E[X^2] = 2.850 \quad \Rightarrow \quad Var(X) = 2.850 - (1.25)^2 = 2.850 - 1.5625 = \mathbf{1.2875}\]
\[\sigma_X = \sqrt{1.2875} \approx \mathbf{1.13} \text{ eventos adversos}\]
Sean \(X\), \(Y\) variables aleatorias, \(a\), \(b\) constantes:
Nota: En general, \(Var(X + Y) = Var(X) + Var(Y) + 2\,Cov(X,Y)\)
La covarianza mide la relación lineal entre dos variables aleatorias \(X\) e \(Y\):
\[\boxed{Cov(X,Y) = E\left[(X - \mu_X)(Y - \mu_Y)\right] = E[XY] - E[X]\cdot E[Y]}\]
| Valor de \(Cov(X,Y)\) | Interpretación |
|---|---|
| \(> 0\) | Cuando \(X\) aumenta, \(Y\) tiende a aumentar |
| \(< 0\) | Cuando \(X\) aumenta, \(Y\) tiende a disminuir |
| \(= 0\) | No hay relación lineal (puede haber relación no lineal) |
La covarianza depende de las unidades. El coeficiente de correlación estandariza:
\[\boxed{\rho_{XY} = \frac{Cov(X,Y)}{\sigma_X \cdot \sigma_Y}, \quad -1 \leq \rho \leq 1}\]
| \(\rho\) | Interpretación |
|---|---|
| \(\approx 1\) | Relación lineal positiva fuerte |
| \(\approx -1\) | Relación lineal negativa fuerte |
| \(\approx 0\) | Sin relación lineal |
Una variable aleatoria \(X\) sigue una distribución Bernoulli con parámetro \(p\) si el experimento tiene exactamente dos resultados posibles: éxito (\(X=1\)) o fracaso (\(X=0\)):
\[X \sim \text{Ber}(p)\]
\[p(x) = p^x (1-p)^{1-x}, \quad x \in \{0, 1\}\]
| Fracaso (\(X=0\)) | Éxito (\(X=1\)) | |
|---|---|---|
| \(p(x)\) | \(1-p\) | \(p\) |
\[E[X] = p \qquad Var(X) = p(1-p)\]
En R, la Bernoulli es un caso especial de la Binomial con size = 1:
Si se realizan \(n\) ensayos de Bernoulli independientes, cada uno con probabilidad de éxito \(p\), la variable aleatoria \(X\) = número de éxitos sigue una distribución Binomial:
\[X \sim \text{Bin}(n, p)\]
\[\boxed{p(x) = \binom{n}{x} p^x (1-p)^{n-x}, \quad x = 0, 1, 2, \ldots, n}\]
\[\boxed{E[X] = np \qquad Var(X) = np(1-p)}\]
De 15 pacientes con neumonía bacteriana tratados con un antibiótico específico, cada uno tiene probabilidad de responder de \(p = 0.75\), independientemente de los demás. Sea \(X\) el número de pacientes que responden.
\[X \sim \text{Bin}(15,\; 0.75)\]
\[P(X = 12) = \binom{15}{12}(0.75)^{12}(0.25)^3 = 455 \cdot (0.75)^{12} \cdot (0.25)^3 \approx 0.225\]
\[E[X] = 15 \times 0.75 = 11.25 \text{ pacientes}\]
\[\sigma_X = \sqrt{15 \times 0.75 \times 0.25} = \sqrt{2.8125} \approx 1.68 \text{ pacientes}\]
[1] 0.2251991
[1] 0.3135141
[1] 0.2360878
[1] 13
Describe el número de éxitos al extraer \(n\) elementos sin reposición de una población finita de \(N\) elementos, de los cuales \(K\) son del tipo de interés.
\[X \sim \text{Hiper}(N, K, n)\]
\[\boxed{p(x) = \frac{\binom{K}{x}\binom{N-K}{n-x}}{\binom{N}{n}}, \quad x = \max(0, n+K-N), \ldots, \min(n, K)}\]
\[E[X] = n \cdot \frac{K}{N} \qquad Var(X) = n \cdot \frac{K}{N} \cdot \frac{N-K}{N} \cdot \frac{N-n}{N-1}\]
El factor \(\dfrac{N-n}{N-1}\) se llama factor de corrección por población finita y refleja que al no haber reposición, la varianza es menor que en la Binomial.
Una sala de rehabilitación tiene 20 pacientes, de los cuales 8 tienen diagnóstico de diabetes. Se seleccionan al azar 6 pacientes para participar en un programa piloto.
Sea \(X\) = número de pacientes diabéticos seleccionados.
\[X \sim \text{Hiper}(N=20,\; K=8,\; n=6)\]
\[P(X = 2) = \frac{\binom{8}{2}\binom{12}{4}}{\binom{20}{6}} = \frac{28 \times 495}{38760} \approx 0.357\]
\[E[X] = 6 \cdot \frac{8}{20} = 2.4 \quad \text{pacientes diabéticos esperados}\]
[1] 0.3575851
[1] 0.8627451
[1] 0.1372549
[1] 2.4
Modela el número de eventos raros o poco frecuentes que ocurren en un intervalo de tiempo o espacio determinado, cuando los eventos ocurren a tasa constante e independientemente entre sí.
\[X \sim \text{Poisson}(\lambda)\]
\[\boxed{p(x) = \frac{e^{-\lambda}\, \lambda^x}{x!}, \quad x = 0, 1, 2, \ldots}\]
\[\boxed{E[X] = \lambda \qquad Var(X) = \lambda}\]
Una característica única: media = varianza = \(\lambda\).
En un hospital, el promedio de pacientes que ingresan a urgencias es de \(\lambda = 4\) pacientes por hora. Sea \(X\) el número de ingresos en una hora.
\[X \sim \text{Poisson}(4)\]
\[P(X = 6) = \frac{e^{-4} \cdot 4^6}{6!} = \frac{0.0183 \times 4096}{720} \approx 0.104\]
\[P(X \leq 2) = \sum_{x=0}^{2} \frac{e^{-4} \cdot 4^x}{x!} = e^{-4}(1 + 4 + 8) = 0.238\]
[1] 0.1041956
[1] 0.2381033
[1] 0.110674
[1] 8
La distribución Normal (o gaussiana) es la distribución continua más importante en estadística. Una variable \(X\) sigue una distribución Normal con media \(\mu\) y varianza \(\sigma^2\):
\[X \sim N(\mu, \sigma^2)\]
\[\boxed{f(x) = \frac{1}{\sigma\sqrt{2\pi}}\; e^{-\frac{(x-\mu)^2}{2\sigma^2}}, \quad x \in \mathbb{R}}\]
\[P(\mu - \sigma \leq X \leq \mu + \sigma) \approx 0.68 \qquad P(\mu - 2\sigma \leq X \leq \mu + 2\sigma) \approx 0.95\]
La presión arterial sistólica (PAS) en adultos sanos sigue una distribución aproximadamente normal:
\[PAS \sim N(120,\; 15^2) \text{ mmHg}\]
¿Qué proporción de adultos tiene PAS entre 105 y 135 mmHg?
\[P(105 \leq PAS \leq 135) = P(120 - 15 \leq PAS \leq 120 + 15) \approx 0.68\]
¿Cuál es la probabilidad de que un adulto sea hipertenso (PAS > 140)?
\[P(PAS > 140) = 1 - P(PAS \leq 140)\]
Usaremos pnorm en R para calcularlo.
[1] 0.7475075
[1] 0.09121122
[1] 0.6826895
[1] 144.6728
Si \(X \sim N(\mu, \sigma^2)\), la variable estandarizada sigue una Normal Estándar:
\[\boxed{Z = \frac{X - \mu}{\sigma} \sim N(0, 1)}\]
La estandarización permite comparar valores de diferentes escalas y usar una única tabla (o función R).
La función \(\Phi(z) = P(Z \leq z)\) se implementa con pnorm en R.
[1] 0.9500042
Z = 1.667
P(PAS > 145) = P(Z > 1.667 ) = 0.0478
IC 95%: [ 90.6 , 149.4 ] mmHg
[1] 0.04151822
[1] 112.6243
[1] 0.038
Este material ha sido creado por Giovany Babativa-Márquez y es de libre distribución bajo la licencia Creative Commons Attribution-ShareAlike 4.0.
Cualquier copia parcial o total de este material, debe citar la fuente como:
Babativa-Márquez, J.G. Diapositivas del curso de Estadística Fundamental para Ciencias de la Salud. URL: https://jgbabativam.github.io/EstadFundSalud/
Diapositivas disponibles en GitHub.