SlideShare una empresa de Scribd logo
C L A S E N ° 5
I N 3 4 0 1
S E M E S T R E O T O Ñ O , 2 0 1 2
Unidad 1
a. Probabilidades y Estadística
1
2
Características de las v.a
Parámetros v.a.
3
 La función de densidad o la distribución de probabilidad de
una v.a. contiene exhaustivamente toda la información
sobre la variable.
 Sin embargo resulta conveniente resumir sus características
principales con unos cuantos valores numéricos. Estos son,
fundamentalmente la esperanza y la varianza.
 Diferenciamos entre v.a. discretas y continuas.
Esperanza
4
 V.a. discretas: es la suma del producto de la probabilidad
de cada suceso por el valor de dicho suceso. Si todos los
sucesos son de igual probabilidad la esperanza es la media.
 Para una variable aleatoria discreta con valores posibles x1,
x2 … xn, la esperanza se calcula como:
Esperanza
5
 V.a. continuas: la esperanza se calcula mediante la
integral de todos los valores y la función de densidad:
 La esperanza es un operador lineal:
E(aX + b) = E(aX ) + E(b) = aE(X ) + b
Varianza
6
 La varianza se define como la esperanza de la transforma-
ción [X-E(X)]2 : E ([X-E(X)]2).
 La desviación estándar s es la raíz cuadrada de la
varianza.
 V.a. discretas:
Varianza(2)
7
Varianza
8
 V.a. continuas: integrar
 Propiedades:
s2 =E(X 2)-E(X)2
V(aX+b)=a2 s2 (X)
Distribuciones Truncadas
9
 Ej: "La longitud de las varillas fabricadas por una
máquina es una variable aleatoria X distribuida según fX.
Si nos quedamos solamente con las varillas que miden más
de 2cm, ¿cómo se distribuye la longitud de las varillas que
quedan?“
 La nueva distribución excluye la probabilidad de la
condición, por lo que la nueva distribución no suma/integra
1.Es necesario corregir la distribución dividiendo por la
probabilidad de la condición y excluyendo los valores
descartados.
Distribuciones Truncadas(2)
10
 Ej (cont):
 Condición: X>2
 Se excluyen los valores descartados:
Distribuciones Truncadas(3)
11
 Ej (cont): Se corrige la distribución dividiendo por la
probabilidad del suceso:
 Verificamos que es efectivamente una distribución:
Distribuciones Truncadas(4)
12
 Gráficamente:
Distribuciones Truncadas(5)
13
 Ej 2(v.a. discretas): Se tienen piezas de tipo 1, 2, 3 y 4,
ubicadas, mezcladas, en una caja. El experimento consiste
en tomar una pieza al azar de la caja. Hay un 20% de piezas
tipo 1, 40% de tipo 2, 3% de tipo 3, y 10% de tipo 4. Luego
alguien se toma el trabajo de quitar todas las piezas tipo 3
de la caja. ¿Cómo se distribuye X ahora?
 Se tiene la siguiente distribución:
Distribuciones Truncadas(5)
14
 Ej 2: condición X 3
 Función con dominio restringido:
 Corrección de la distribución:
Distribuciones Truncadas(6)
15
 Gráficamente:
Distribución conjunta
16
 Se deben cumplir los mismos supuestos que para variables
unidimensionales:
 La interpretación de la función de densidad conjunta es una
función bidimensional.
Distribución conjunta(2)
17
 Ej: X: el número que sale al tirar un dado.
Y: la cantidad de caras que salen al tirar una moneda.
Distribución conjunta(2)
18
 Ej 2: Caso continuo:
Distribución Marginal
19
 Cada componente de una variable aleatoria bidimensional
es una variable aleatoria unidimensional en sí misma.
 Nos puede interesar conocer la distribución de una
componente por separado, sin tener en cuenta a la otra
componente.
 Eso se denomina "marginar", y la distribución de la variable
unidimensional por separado se llama "distribución
marginal".
Distribución Marginal(2)
20
 (v.a. discretas) Sea la variable aleatoria bidimensional XY
distribuida según PXY(x,y), la distribución marginal de X es:
 Análogamente, la distribución marginal de Y es:
Distribución Marginal(3)
21
 (v.a. continuas) Sea la variable aleatoria bidimensional XY
distribuida según fXY(x,y), la distribución marginal de X es:
 Análogamente, la distribución marginal de Y es:
Distribución Marginal(4)
22
 Ej 1:
Distribución Marginal(5)
23
Distribución Marginal(5)
24
 Ej 2:
Distribución Marginal(6)
25
 Ej 2: Distribución marginal de X: se aplica la fórmula al
único intervalo relevante (0 < x < 4):
Distribución Marginal(7)
26
 Ej 2: Distribución marginal de Y: se aplica la fórmula al
único intervalo relevante (1 < y < 3):
Distribución Marginal(8)
27
 Ej 3:
Distribución Marginal(9)
28
 Ej 3: Distribución marginal de X: se aplica la fórmula al
único intervalo relevante (0 <x< 2):
 Distribución marginal de Y: se aplica la fórmula al único
intervalo relevante (0 < y < 2):
Covarianza
29
 Introducimos el concepto de probabilidad conjunta, cuando
dos v.a. pueden tomar simultáneamente ciertos valores
concretos (caso discreto):
 La covarianza refleja la relación lineal de 2 v.a. X e Y:
s (X,Y) =E(XY)-E(X) E(Y)
Covarianza(2)
30
Donde:
caso v.a. discretas
caso v.a. continuas
 Correlación de Pearson:
Distribuciones Condicionales.
31
 Supongamos que tenemos las v.a. peso y altura.
 Intuitivamente, si conocemos el valor que tomó una de las
v.a. al hacer el experimento, eso nos modificará la
distribución de probabilidad de la otra variable aleatoria.
 Conociendo función de densidad conjunta de las dos
variables aleatorias, podemos obtener la distribución
marginal del peso. Pero si conociéramos que la variable
altura tomó el valor 1.90m, ¿la distribución marginal del
peso que teníamos sigue siendo válida?
Distribuciones Condicionales(2).
32
 No, Seguramente, la masa de probabilidad del peso tenderá
a distribuirse más hacia los valores más altos:
Distribuciones Condicionales(3).
33
 Se define entonces la función de densidad condicional:
 Caso 2 v.a. discretas X e Y:
 Caso 2 v.a. continuas X e Y:
Independencia de v.a.
34
 Intuitivamente, X e Y son independientes si fX/Y(x,y) es
idéntica para todos los posibles valores de y.
 Por ejemplo, que la distribución del peso es idéntica para
los distintos valores de altura (claramente no se cumple).
 Si fX/Y(x,y) no depende de y, entonces es en realidad fX(x), es
decir, la distribución marginal de X.
Independencia de v.a.(2)
35
 Ej 1:
Independencia de v.a.(3)
36
Independencia de v.a.(4)
37
Ej 2:
Independencia de v.a.(5)
38
Esperanza Condicional
39
 Podemos obtener la esperanza de una distribución
condicional de la misma manera que para el caso
unidimensional:
 Caso 2 v.a. discretas X e Y:
 Caso 2 v.a. continuas X e Y:
Percentiles
40
 El percentil p de una variable aleatoria X es número más
pequeño, que denominaremos xu que cumple:
 el percentil es, por tanto, el valor de la variable aleatoria
para el cual la función de distribución acumulada toma el
valor p.
Distribuciones Discretas - Binomial
41
 Ensayo de Bernoulli: Es un experimento que puede arrojar
2 resultados posibles. A uno de los resultados se lo
denomina arbitrariamente "éxito" y al otro "fracaso".
 El ensayo de Bernoulli lleva asociada una probabilidad (de
éxito). Ej: tirar un dado, donde el éxito es sacar 5:
 P[éxito]=1/6; P[fracaso]=1-1/6=5/6
 Un proceso de Bernoulli considera n ensayos de Bernoulli
independientes
Distribuciones Discretas – Binomial(2)
42
 La probabilidad de obtener k éxitos en un proceso de
Bernoulli de n ensayos se distribuye Binomial(n,p):
 Esto se cumple cuando 0 k n. Para los valores restantes
de k esta probabilidad es cero.
 Además se tiene E(X)=np y V(X)=np(1-p)
Distribuciones Discretas – Binomial(3)
43
 Aspecto de la distribución binomial:
 Importante señalar que todos los valores entre 0 y n tienen
probabilidad no nula, aunque la probabilidad de los valores
cercanos a n será muy pequeña si p es chico, y la probabili-
dad de los valores cercanos al 0 será muy pequeña si p es
grande.
Distribuciones Discretas – Geométrica
44
 La probabilidad de obtener el primer éxito en el intento
número x se distribuye geométrica(p):
 Además se tiene E(X)=1/p y V(X)=(1-p)/p2
 Aspecto:
Distribuciones Discretas – Pascal
45
 "¿Cuál es la probabilidad de obtener el k-ésimo éxito en el
intento número x?“
 X se distribuye Pascal(k , p):
 Además se tiene E(X)=k/p y V(X)=k(1-p)/p2
Distribuciones Discretas – Pascal(2)
46
 Aspecto
 Todos los valores menores que k tienen probabilidad nula.
A partir de k, la probabilidad crece con mayor o menor
velocidad dependiendo de p, y luego de llegar al valor más
probable, decrece lenta y asintóticamente hacia el 0.
Distribuciones Discretas – Poisson
47
 "¿Cuál es la probabilidad de obtener x eventos en un
intervalo de tiempo?”
 La distribución de Poisson usa el parámetro m = lT, donde T
es la longitud del intervalo, y l es la cantidad esperada de
eventos por unidad de tiempo, entonces m resulta ser la
media.
 X:Poisson(m)
Distribuciones Discretas – Poisson(2)
48
 La esperanza y varianza de una distribución de Poisson:
E(X)= m y V(X)= m
 Aspecto:
Distribuciones Continuas– Uniforme
49
 En una distribución uniforme las probabilidades son las
mismas para todos los posibles resultados
 Aspecto: Uniforme (a,b)
Distribuciones Continuas– Uniforme(2)
50
 La media está a mitad de camino de los puntos extremos:
 Varianza:
 Función de densidad: f
Distribuciones Continuas– Exponencial
51
 Mientras que la distribución de Poisson describe las tasas
de llegadas (personas, camiones, etc) dentro de un período
de tiempo, la dist. Exponencial estima el lapso entre arribos
 La esperanza y varianza de una distribución Exponencial:
E(X)= m y V(X)= m
Distribuciones Continuas– Exponencial(2)
52
 Aspecto
Distribuciones Continuas– Normal
53
 En forma simple, la distribución normal (datos continuos)
se asocia una curva simétrica en forma de campana
 Está caracterizada por dos parámetros: N(m,s2)
Distribuciones Continuas– Normal (2)
54
 Distribución Normal y Regla Empírica: La regla
empírica dice que si se incluyen todas las observaciones que
están a una desviación estándar de la media, éstas serán el
68.3% de todas las observaciones.
 De la misma manera: 95.5% de los datos están dentro de
dos desv. estándar y 99.7% de las obs. están dentro de tres
desv. estándar.
55
 Ejemplo:
Distribuciones Continuas– Normal (3)
Distribuciones Continuas– Normal(4)
56
 Normal tipificada o estándar: permite analizar las
propiedades de la Normal sin depender de parámetros:
 El valor de Z se puede interpretar como el número de
desviaciones estándar a las que una observación está por
encima o por debajo de la media.
 Para obtener la probabilidad de un evento se debe ir a la
tabla de la normal estándar.
Distribuciones Continuas– Normal(5)
57
 Ej:
Distribuciones Continuas– Normal(6)
58
 a) 0.4525 b)0.5-0.4525=0.0475
 c) 0.2586
Distribuciones Continuas– Normal(7)
59
 d)
Distribuciones Continuas– Normal(8)
60
 si n es suficientemente grande una dist. binomial puede
aproximarse a una normal de parámetros m=np y
Distribuciones Continuas– Normal(9)
61
 Función de densidad (estandarizada):
 Función de densidad:
 FDA:
Distribuciones Continuas– chi-cuadrado
62
 La distribución χ² con k grados de libertad se utiliza
comúnmente para inferencia estadística, y representa la
distribución de la suma de los cuadrados de k v.a. normales
estándar independientes X1…Xk.
 Función de densidad (G=función Gamma):
Distribuciones Continuas– chi-cuadrado(2)
63
 Aspecto:
Distribuciones Continuas– F-Fisher
64
 Derivada de la distribución χ², también se utiliza frecuente-
mente en la estadística inferencial. También conocida como
F de Snedecor.
 La distribución nace del cociente de dos variables U1 y U2
independientes distribuidas χ² con d1 y d2 grados de
libertad respectivamente:
F(d1,d2)
Distribuciones Continuas– F-Fisher(2)
65
 Aspecto
Distribuciones Continuas– t-Student
66
 Similar a la distribución normal (simétrica, forma de
campana), se suele utilizar en muestras pequeñas.
 Se caracteriza por una varianza mayor a la normal y
dependiente de los grados de libertad (el número de
observaciones de la muesta).
 La distribución t proviene del ratio: (V ~ χ² con n g.l)
Distribuciones Continuas– t-Student
67
 La distribución t tiende a Z cuando n aumenta:
 Varianza:

Más contenido relacionado

PPTX
Matriz jacobiana
PDF
Interpolación método de Lagrange
PDF
propiedades de matrices y determinantes
DOCX
Tarea 15 de PROBABILIDAD Y ESTADISTICA CON RESPUESTAS
 
PDF
Función gamma
PPT
Serie de-taylor-y-maclaurin
PPT
Distribuciones de probabilidad.
PDF
Ecuaciones diferenciales lineales de primer orden y aplicaciones(tema 1)
Matriz jacobiana
Interpolación método de Lagrange
propiedades de matrices y determinantes
Tarea 15 de PROBABILIDAD Y ESTADISTICA CON RESPUESTAS
 
Función gamma
Serie de-taylor-y-maclaurin
Distribuciones de probabilidad.
Ecuaciones diferenciales lineales de primer orden y aplicaciones(tema 1)

La actualidad más candente (20)

DOC
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3
PPT
Operador anulador
PDF
Tematicas del 3er corte
PPT
Teoría de regresión y correlación lineal
PDF
electrotecnia basica tarea academica
PDF
2do Trabajo de Matemática Aplicada II - Limites y continuidad en complejos - ...
PPT
Reduccion de orden
PDF
Ecuaciones diferenciales - Métodos de Solución
DOCX
Laboratorio de-estad -stica_prob
DOCX
espacios vectoriales
PDF
Solucionario circuitos eléctricos - dorf, svoboda - 6ed
PPTX
Ejemplo del Método de Bisección
PDF
Propiedades de la sumatoria.
DOCX
Ejercicios campo electrico y carga puntual
PDF
Ecuaciones Diferenciales
PPTX
Integrales ciclicas
PDF
Independencia Lineal y Wronskiano
PPTX
Transformada de una Derivada
PPTX
Impedancias Analisis de circuitos
PDF
ejercicios-resueltos-interpolacion-polinomial
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3
Operador anulador
Tematicas del 3er corte
Teoría de regresión y correlación lineal
electrotecnia basica tarea academica
2do Trabajo de Matemática Aplicada II - Limites y continuidad en complejos - ...
Reduccion de orden
Ecuaciones diferenciales - Métodos de Solución
Laboratorio de-estad -stica_prob
espacios vectoriales
Solucionario circuitos eléctricos - dorf, svoboda - 6ed
Ejemplo del Método de Bisección
Propiedades de la sumatoria.
Ejercicios campo electrico y carga puntual
Ecuaciones Diferenciales
Integrales ciclicas
Independencia Lineal y Wronskiano
Transformada de una Derivada
Impedancias Analisis de circuitos
ejercicios-resueltos-interpolacion-polinomial
Publicidad

Similar a Variables aleatorias (20)

PDF
Distribuciones de probabilidad continua
PPSX
Jose borges tarea presentacion ppt dist de prob
PPT
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
PPT
Clase 1 distribuciones
DOCX
Distribución de probabilidad
PPTX
Presentación Distribución de Probabilidad
PPTX
Estadistica Aplicada
PDF
S02-1_Lecture_Econometrics1_Turco.pdf
PPTX
L ochoa-distribuciones-probabilidad-discretas
PDF
PPTX
probabilidad, definiciones, propiedades fundamentales
PPT
Estadistica y probabilidades cap vii
DOCX
Distrubuciones para subir al blog
PDF
Cuarta parte del resumen de probabilidad 1
DOCX
Foro 2 DISTRIBUCIONES PROBABILISTICAS CONTINUAS
PDF
ESTADISTICA II
DOCX
Variables aleatorias. estadistica 1
DOCX
Distribuciones de probabilidad
DOC
Distribuciones de probabilidad_1
PDF
Que es probabilidad
Distribuciones de probabilidad continua
Jose borges tarea presentacion ppt dist de prob
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
Clase 1 distribuciones
Distribución de probabilidad
Presentación Distribución de Probabilidad
Estadistica Aplicada
S02-1_Lecture_Econometrics1_Turco.pdf
L ochoa-distribuciones-probabilidad-discretas
probabilidad, definiciones, propiedades fundamentales
Estadistica y probabilidades cap vii
Distrubuciones para subir al blog
Cuarta parte del resumen de probabilidad 1
Foro 2 DISTRIBUCIONES PROBABILISTICAS CONTINUAS
ESTADISTICA II
Variables aleatorias. estadistica 1
Distribuciones de probabilidad
Distribuciones de probabilidad_1
Que es probabilidad
Publicidad

Último (20)

DOCX
Cumplimiento normativo y realidad laboral
PDF
S15 Protección de redes electricas 2025-1_removed.pdf
PPTX
1 CONTAMINACION AMBIENTAL EN EL PLANETA.pptx
PDF
Informe Estudio Final Apagon del 25 de febrero
DOC
informacion acerca de la crianza tecnificada de cerdos
PDF
Perfilaje de Pozos _20250624_222013_0000.pdf
PDF
FIJA NUEVO TEXTO DE LA ORDENANZA GENERAL DE LA LEY GENERAL DE URBANISMO Y CON...
PPTX
Manual ISO9001_2015_IATF_16949_2016.pptx
PPTX
MARITIMO Y LESGILACION DEL MACO TRANSPORTE
PDF
HISTORIA DE LA GRÚAA LO LARGO DE LOS TIEMPOSpdf
PPTX
MODULO 1.SEGURIDAD Y SALUD CONCEPTOS GENERALES.pptx
PPTX
Introduccion quimica del fuego.ffffffffffpptx
PPT
PRIMEROS AUXILIOS EN EL SECTOR EMPRESARIAL
PDF
SISTEMAS DE PUESTA A TIERRA: Una introducción a los fundamentos de los sistem...
PPTX
clase MICROCONTROLADORES ago-dic 2019.pptx
PDF
presentacion sobre los polimeros, como se conforman
PDF
fulguracion-medicina-legal-418035-downloable-2634665.pdf lesiones por descarg...
PDF
LIBRO UNIVERSITARIO DESARROLLO ORGANIZACIONAL BN.pdf
PPTX
Software para la educación instituciones superiores
PDF
Pensamiento Politico Siglo XXI Peru y Mundo.pdf
Cumplimiento normativo y realidad laboral
S15 Protección de redes electricas 2025-1_removed.pdf
1 CONTAMINACION AMBIENTAL EN EL PLANETA.pptx
Informe Estudio Final Apagon del 25 de febrero
informacion acerca de la crianza tecnificada de cerdos
Perfilaje de Pozos _20250624_222013_0000.pdf
FIJA NUEVO TEXTO DE LA ORDENANZA GENERAL DE LA LEY GENERAL DE URBANISMO Y CON...
Manual ISO9001_2015_IATF_16949_2016.pptx
MARITIMO Y LESGILACION DEL MACO TRANSPORTE
HISTORIA DE LA GRÚAA LO LARGO DE LOS TIEMPOSpdf
MODULO 1.SEGURIDAD Y SALUD CONCEPTOS GENERALES.pptx
Introduccion quimica del fuego.ffffffffffpptx
PRIMEROS AUXILIOS EN EL SECTOR EMPRESARIAL
SISTEMAS DE PUESTA A TIERRA: Una introducción a los fundamentos de los sistem...
clase MICROCONTROLADORES ago-dic 2019.pptx
presentacion sobre los polimeros, como se conforman
fulguracion-medicina-legal-418035-downloable-2634665.pdf lesiones por descarg...
LIBRO UNIVERSITARIO DESARROLLO ORGANIZACIONAL BN.pdf
Software para la educación instituciones superiores
Pensamiento Politico Siglo XXI Peru y Mundo.pdf

Variables aleatorias

  • 1. C L A S E N ° 5 I N 3 4 0 1 S E M E S T R E O T O Ñ O , 2 0 1 2 Unidad 1 a. Probabilidades y Estadística 1
  • 3. Parámetros v.a. 3  La función de densidad o la distribución de probabilidad de una v.a. contiene exhaustivamente toda la información sobre la variable.  Sin embargo resulta conveniente resumir sus características principales con unos cuantos valores numéricos. Estos son, fundamentalmente la esperanza y la varianza.  Diferenciamos entre v.a. discretas y continuas.
  • 4. Esperanza 4  V.a. discretas: es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso. Si todos los sucesos son de igual probabilidad la esperanza es la media.  Para una variable aleatoria discreta con valores posibles x1, x2 … xn, la esperanza se calcula como:
  • 5. Esperanza 5  V.a. continuas: la esperanza se calcula mediante la integral de todos los valores y la función de densidad:  La esperanza es un operador lineal: E(aX + b) = E(aX ) + E(b) = aE(X ) + b
  • 6. Varianza 6  La varianza se define como la esperanza de la transforma- ción [X-E(X)]2 : E ([X-E(X)]2).  La desviación estándar s es la raíz cuadrada de la varianza.  V.a. discretas:
  • 8. Varianza 8  V.a. continuas: integrar  Propiedades: s2 =E(X 2)-E(X)2 V(aX+b)=a2 s2 (X)
  • 9. Distribuciones Truncadas 9  Ej: "La longitud de las varillas fabricadas por una máquina es una variable aleatoria X distribuida según fX. Si nos quedamos solamente con las varillas que miden más de 2cm, ¿cómo se distribuye la longitud de las varillas que quedan?“  La nueva distribución excluye la probabilidad de la condición, por lo que la nueva distribución no suma/integra 1.Es necesario corregir la distribución dividiendo por la probabilidad de la condición y excluyendo los valores descartados.
  • 10. Distribuciones Truncadas(2) 10  Ej (cont):  Condición: X>2  Se excluyen los valores descartados:
  • 11. Distribuciones Truncadas(3) 11  Ej (cont): Se corrige la distribución dividiendo por la probabilidad del suceso:  Verificamos que es efectivamente una distribución:
  • 13. Distribuciones Truncadas(5) 13  Ej 2(v.a. discretas): Se tienen piezas de tipo 1, 2, 3 y 4, ubicadas, mezcladas, en una caja. El experimento consiste en tomar una pieza al azar de la caja. Hay un 20% de piezas tipo 1, 40% de tipo 2, 3% de tipo 3, y 10% de tipo 4. Luego alguien se toma el trabajo de quitar todas las piezas tipo 3 de la caja. ¿Cómo se distribuye X ahora?  Se tiene la siguiente distribución:
  • 14. Distribuciones Truncadas(5) 14  Ej 2: condición X 3  Función con dominio restringido:  Corrección de la distribución:
  • 16. Distribución conjunta 16  Se deben cumplir los mismos supuestos que para variables unidimensionales:  La interpretación de la función de densidad conjunta es una función bidimensional.
  • 17. Distribución conjunta(2) 17  Ej: X: el número que sale al tirar un dado. Y: la cantidad de caras que salen al tirar una moneda.
  • 19. Distribución Marginal 19  Cada componente de una variable aleatoria bidimensional es una variable aleatoria unidimensional en sí misma.  Nos puede interesar conocer la distribución de una componente por separado, sin tener en cuenta a la otra componente.  Eso se denomina "marginar", y la distribución de la variable unidimensional por separado se llama "distribución marginal".
  • 20. Distribución Marginal(2) 20  (v.a. discretas) Sea la variable aleatoria bidimensional XY distribuida según PXY(x,y), la distribución marginal de X es:  Análogamente, la distribución marginal de Y es:
  • 21. Distribución Marginal(3) 21  (v.a. continuas) Sea la variable aleatoria bidimensional XY distribuida según fXY(x,y), la distribución marginal de X es:  Análogamente, la distribución marginal de Y es:
  • 25. Distribución Marginal(6) 25  Ej 2: Distribución marginal de X: se aplica la fórmula al único intervalo relevante (0 < x < 4):
  • 26. Distribución Marginal(7) 26  Ej 2: Distribución marginal de Y: se aplica la fórmula al único intervalo relevante (1 < y < 3):
  • 28. Distribución Marginal(9) 28  Ej 3: Distribución marginal de X: se aplica la fórmula al único intervalo relevante (0 <x< 2):  Distribución marginal de Y: se aplica la fórmula al único intervalo relevante (0 < y < 2):
  • 29. Covarianza 29  Introducimos el concepto de probabilidad conjunta, cuando dos v.a. pueden tomar simultáneamente ciertos valores concretos (caso discreto):  La covarianza refleja la relación lineal de 2 v.a. X e Y: s (X,Y) =E(XY)-E(X) E(Y)
  • 30. Covarianza(2) 30 Donde: caso v.a. discretas caso v.a. continuas  Correlación de Pearson:
  • 31. Distribuciones Condicionales. 31  Supongamos que tenemos las v.a. peso y altura.  Intuitivamente, si conocemos el valor que tomó una de las v.a. al hacer el experimento, eso nos modificará la distribución de probabilidad de la otra variable aleatoria.  Conociendo función de densidad conjunta de las dos variables aleatorias, podemos obtener la distribución marginal del peso. Pero si conociéramos que la variable altura tomó el valor 1.90m, ¿la distribución marginal del peso que teníamos sigue siendo válida?
  • 32. Distribuciones Condicionales(2). 32  No, Seguramente, la masa de probabilidad del peso tenderá a distribuirse más hacia los valores más altos:
  • 33. Distribuciones Condicionales(3). 33  Se define entonces la función de densidad condicional:  Caso 2 v.a. discretas X e Y:  Caso 2 v.a. continuas X e Y:
  • 34. Independencia de v.a. 34  Intuitivamente, X e Y son independientes si fX/Y(x,y) es idéntica para todos los posibles valores de y.  Por ejemplo, que la distribución del peso es idéntica para los distintos valores de altura (claramente no se cumple).  Si fX/Y(x,y) no depende de y, entonces es en realidad fX(x), es decir, la distribución marginal de X.
  • 39. Esperanza Condicional 39  Podemos obtener la esperanza de una distribución condicional de la misma manera que para el caso unidimensional:  Caso 2 v.a. discretas X e Y:  Caso 2 v.a. continuas X e Y:
  • 40. Percentiles 40  El percentil p de una variable aleatoria X es número más pequeño, que denominaremos xu que cumple:  el percentil es, por tanto, el valor de la variable aleatoria para el cual la función de distribución acumulada toma el valor p.
  • 41. Distribuciones Discretas - Binomial 41  Ensayo de Bernoulli: Es un experimento que puede arrojar 2 resultados posibles. A uno de los resultados se lo denomina arbitrariamente "éxito" y al otro "fracaso".  El ensayo de Bernoulli lleva asociada una probabilidad (de éxito). Ej: tirar un dado, donde el éxito es sacar 5:  P[éxito]=1/6; P[fracaso]=1-1/6=5/6  Un proceso de Bernoulli considera n ensayos de Bernoulli independientes
  • 42. Distribuciones Discretas – Binomial(2) 42  La probabilidad de obtener k éxitos en un proceso de Bernoulli de n ensayos se distribuye Binomial(n,p):  Esto se cumple cuando 0 k n. Para los valores restantes de k esta probabilidad es cero.  Además se tiene E(X)=np y V(X)=np(1-p)
  • 43. Distribuciones Discretas – Binomial(3) 43  Aspecto de la distribución binomial:  Importante señalar que todos los valores entre 0 y n tienen probabilidad no nula, aunque la probabilidad de los valores cercanos a n será muy pequeña si p es chico, y la probabili- dad de los valores cercanos al 0 será muy pequeña si p es grande.
  • 44. Distribuciones Discretas – Geométrica 44  La probabilidad de obtener el primer éxito en el intento número x se distribuye geométrica(p):  Además se tiene E(X)=1/p y V(X)=(1-p)/p2  Aspecto:
  • 45. Distribuciones Discretas – Pascal 45  "¿Cuál es la probabilidad de obtener el k-ésimo éxito en el intento número x?“  X se distribuye Pascal(k , p):  Además se tiene E(X)=k/p y V(X)=k(1-p)/p2
  • 46. Distribuciones Discretas – Pascal(2) 46  Aspecto  Todos los valores menores que k tienen probabilidad nula. A partir de k, la probabilidad crece con mayor o menor velocidad dependiendo de p, y luego de llegar al valor más probable, decrece lenta y asintóticamente hacia el 0.
  • 47. Distribuciones Discretas – Poisson 47  "¿Cuál es la probabilidad de obtener x eventos en un intervalo de tiempo?”  La distribución de Poisson usa el parámetro m = lT, donde T es la longitud del intervalo, y l es la cantidad esperada de eventos por unidad de tiempo, entonces m resulta ser la media.  X:Poisson(m)
  • 48. Distribuciones Discretas – Poisson(2) 48  La esperanza y varianza de una distribución de Poisson: E(X)= m y V(X)= m  Aspecto:
  • 49. Distribuciones Continuas– Uniforme 49  En una distribución uniforme las probabilidades son las mismas para todos los posibles resultados  Aspecto: Uniforme (a,b)
  • 50. Distribuciones Continuas– Uniforme(2) 50  La media está a mitad de camino de los puntos extremos:  Varianza:  Función de densidad: f
  • 51. Distribuciones Continuas– Exponencial 51  Mientras que la distribución de Poisson describe las tasas de llegadas (personas, camiones, etc) dentro de un período de tiempo, la dist. Exponencial estima el lapso entre arribos  La esperanza y varianza de una distribución Exponencial: E(X)= m y V(X)= m
  • 53. Distribuciones Continuas– Normal 53  En forma simple, la distribución normal (datos continuos) se asocia una curva simétrica en forma de campana  Está caracterizada por dos parámetros: N(m,s2)
  • 54. Distribuciones Continuas– Normal (2) 54  Distribución Normal y Regla Empírica: La regla empírica dice que si se incluyen todas las observaciones que están a una desviación estándar de la media, éstas serán el 68.3% de todas las observaciones.  De la misma manera: 95.5% de los datos están dentro de dos desv. estándar y 99.7% de las obs. están dentro de tres desv. estándar.
  • 56. Distribuciones Continuas– Normal(4) 56  Normal tipificada o estándar: permite analizar las propiedades de la Normal sin depender de parámetros:  El valor de Z se puede interpretar como el número de desviaciones estándar a las que una observación está por encima o por debajo de la media.  Para obtener la probabilidad de un evento se debe ir a la tabla de la normal estándar.
  • 58. Distribuciones Continuas– Normal(6) 58  a) 0.4525 b)0.5-0.4525=0.0475  c) 0.2586
  • 60. Distribuciones Continuas– Normal(8) 60  si n es suficientemente grande una dist. binomial puede aproximarse a una normal de parámetros m=np y
  • 61. Distribuciones Continuas– Normal(9) 61  Función de densidad (estandarizada):  Función de densidad:  FDA:
  • 62. Distribuciones Continuas– chi-cuadrado 62  La distribución χ² con k grados de libertad se utiliza comúnmente para inferencia estadística, y representa la distribución de la suma de los cuadrados de k v.a. normales estándar independientes X1…Xk.  Función de densidad (G=función Gamma):
  • 64. Distribuciones Continuas– F-Fisher 64  Derivada de la distribución χ², también se utiliza frecuente- mente en la estadística inferencial. También conocida como F de Snedecor.  La distribución nace del cociente de dos variables U1 y U2 independientes distribuidas χ² con d1 y d2 grados de libertad respectivamente: F(d1,d2)
  • 66. Distribuciones Continuas– t-Student 66  Similar a la distribución normal (simétrica, forma de campana), se suele utilizar en muestras pequeñas.  Se caracteriza por una varianza mayor a la normal y dependiente de los grados de libertad (el número de observaciones de la muesta).  La distribución t proviene del ratio: (V ~ χ² con n g.l)
  • 67. Distribuciones Continuas– t-Student 67  La distribución t tiende a Z cuando n aumenta:  Varianza: