SlideShare una empresa de Scribd logo
Modelos Estocásticos Esperanza Matemática SESIÓN 04
Esperanza Matemática 1 Definición 4.1 : Si  x  es una variable aleatoria discreta y f(x) es el valor de su distribución de probabilidad en x, el  valor esperado  de esta variable aleatoria es E(x) =   x x  f(x) En forma correspondiente, si  x  es una variable aleatoria continua y f(x) es el valor de su densidad de probabilidad en x, el  valor esperado  de esta variable aleatoria es
Esperanza Matemática 2 Teorema 4.1 : Si  x  es una variable aleatoria discreta y f(x) es el valor de su distribución de probabilidad en x, el valor esperado   de la variable aleatoria g( x ) es E[g( x )] =   x g(x)  f(x) En forma correspondiente, si  x  es una variable aleatoria continua y f(x) es el valor de su densidad de probabilidad en x, el valor esperado de la variable aleatoria g( x ) es
Esperanza Matemática 3 Teorema 4.2 : Si a y b son constantes, entonces E(a x +b) =a E( x ) + b Teorema 4.3 : Si c 1 , c 2 ,…, y c n  son constantes, entonces
Esperanza Matemática 4 Teorema 4.4 : Si  x  y  y  son variables aleatorias discretas y f(x,y) es el valor de su distribución de probabilidad conjunta en (x,y), el valor esperado de la variable aleatoria g( x , y ) es E[g( x,y )] =  x  y g(x,y)f(x,y) En forma correspondiente, si  x  y  y  son variables aleatorias continuas y f(x,y) es el valor de su densidad conjunta en (x,y), el valor esperado de la variable aleatoria g( x,y ) es
Esperanza Matemática 5 Teorema 4.5 : Si c 1 , c 2 ,…, y c n  son constantes, entonces
Momentos 1 Definición 4.2 : El r-ésimo  momento con respecto al origen  de la variable aleatoria  x , representado por   ’ r, , es el valor esperado de  x r ; en forma simbólica se tiene para r = 0, 1, 2 ,3,…, cuando  x  es discreta y cuando  x  es continua
Momentos 2 Definición 4.3 :   ’ r  se conoce como la media de la distribución de x, o simplemente la media de x, y está denotada por   Definición 4.4 : El r-’esimo momento con respecto a la media de la variable aleatoria x, denotado por   r, , es el valor esperado de  (x-  ) r,  simbólica se tiene para r = 0, 1, 2 ,3,…, cuando  x  es discreta y cuando  x  es continua
Momentos 3 Definición 4.5 :   2  se denomina  varianza de la distribución  de  x , o simplemente  varianza  de  x , y se representa mediante   2 , var ( x ) o V( x ). La raíz cuadrada positiva de la varianza recibe el nombre de  desviación estándar  y se representa por   ( x ) Teorema 4.6 :   2  =   ’ 2  -   2
Momentos 4 Teorema 4.7 : Si  x  tiene varianza   2  entonces var (a x +b) = a 2  2 Teorema 4.8 : ( Teorema de Tchebycheff ) Si    y    son, respectivamente, la media y la desviación estándar de la variable aleatoria  x , entonces para una constante positiva k cualquiera la probabilidad es cuando menos 1 -  1/k 2  de que  x  tomará un valor contenido en k desviaciones estándar de la media; en forma simbólica se tiene, o
Función Generatriz de Momentos 1 Definición 4.6 : La función generatriz de momentos de la variable aleatoria  x , donde exista, está dada por cuando x es discreta y cuando x es continua
Función Generatriz de Momentos 2 Teorema 4.9 : Teorema 4.10 : Si a y b son constantes, entonces
Momentos Producto 1 Definición 4.7 : El  r-ésimo  y  s-ésimo momento producto con respecto al origen  de las variables aleatorias  x  y  y , representado por   ’ r,s , es el valor esperado de  x r y s ; en forma simbólica, se tiene para r = 0, 1, 2,… y s = 0, 1, 2,…, cuando  x  y  y  son   discretas y cuando  x  y  y  son continuas
Momentos Producto 2 Definición 4.8 : El  r-ésimo  y  s-ésimo momento producto con respecto a las medias  respectivas de las variables aleatorias  x  y  y , representado por   r,s , es el valor esperado de  (x-  x ) r (y-  y ) s ; en forma simbólica, se tiene para r = 0, 1, 2,… y s = 0, 1, 2,…, cuando  x  y  y  son   discretas y cuando  x  y  y  son continuas
Momentos Producto 3 Definición 4.9 :   1,1  recibe el nombre de  covarianza  de  x  y  y , y se representa por medio de   x , y , cov ( x , y ) o C ( x , y ) Teorema 4.11:    x , y  =   ’ 1,1  -   x   y   Teorema 4.12:  Si  x  y  y  son independientes, entonces E( xy ) = E( x ) E( y ) y   x , y  = 0 Teorema 4.13:  Si  x 1 , x 2 ,  …y  x n  son independientes, entonces  E( x 1 x 2 …x n ) = E( x 1 ) E( x 2 ) …E( x n )
Momentos de Combinaciones Lineales 1 Teorema 4.14:  Si  x 1 , x 2 ,  …y  x n  son variables aleatorias y  donde a 1 , a 2 ,…a n  son constantes, entonces  donde la doble suma se extiende sobre todos los valores de i y j, de 1 a n, para los cuales i < j
Momentos de Combinaciones Lineales 2 Corolario:  Si las variables aleatorias  x 1 , x 2 ,  …y  x n  son independientes y  entonces
Momentos de Combinaciones Lineales 3 Teorema 4.15:  Si las variables aleatorias  x 1 , x 2 ,  …y  x n  son independientes y  y donde a 1 , a 2 ,…,a n , b 1 , b 2 ,…,b n  son constantes, entonces
Momentos de Combinaciones Lineales 4 Corolario:  Si las variables aleatorias  x 1 , x 2 ,  …y  x n  son independientes y  y  entonces
Esperanzas Condicionales Definición 4.10:  Si  x  es una variable aleatoria discreta y f(xly) es el valor de la distribución de probabilidad condicional de  x  dada  y  = y en x, la  esperanza condicional  de   ( x ) dada  y  = y es  En forma correspondiente, si x es la variable aleatoria continua y f(xly) es el valor de la densidad de probabilidad condicional de  x  dada  y  = y en x, la  esperanza condicional  de   ( x ) dada  y  = y es
Técnica de Transformación: una variable Teorema 4.16 : Sea f(x) el valor de la densidad de probabilidad de la variable aleatoria continua  x  en x. Si la función dada por y = u(x) es diferenciable y creciente o decreciente para todos los valores contenidos en el rango de  x  para los cuales f(x)    0, entonces, para estos valores de x, la ecuación y = u(x) puede resolverse de manera única para cada x con el fin de producir x = w(y) y para los valores de y correspondientes la densidad de probabilidad de  y  = u( x ) está dada por g(y) = f[w(y)][w’(y)] siempre que u’ (x)    0. En cualquier parte, g(y) = 0
Técnica de Transformación: dos variables 1 Teorema 4.17 : Sea f(x 1 ,x 2 ) el valor de la densidad de probabilidad conjunta de las variables aleatorias continuas  x 1  y  x 2  en (x 1 ,x 2 ) .  Si las funciones dadas por y 1  = u 1  (x 1 ,x 2 )  y y 2  = u 2  (x 1 ,x 2 ) son parcialmente diferenciables con respecto a x 1  y x 2  y representan una transformación biunívoca de todos los valores contenidos en el rango de  x 1  y  x 2  para los cuales f(x 1 ,x 2 ) = 0, entonces, para estos valores de x 1  y x 2  , las ecuaciones y 1  = u 1  (x 1 ,x 2 )  y y 2  = u 2  (x 1 ,x 2 ) pueden resolverse de manera única para cada x 1  y x 2  con el fin de producir x 1  = w 1  (y 1 , y 2 ) y x 2  = w 2  (y 1 , y 2 ), y para los valores correspondientes de y 1  y y 2  la densidad de probabilidad conjunta de  y 1   = u 1  ( x1 ,   x 2  ) y  y 2   = u 2  ( x1 ,   x 2  ) está dada por g (y 1 , y 2 )  = f [w 1  (y 1 , y 2 ), w 2  (y 1 , y 2 )] IJI
Técnica de Transformación: dos variables 2 Aquí, J es el Jacobiano de la transformación, dado por el determinante  En cualquier otra parte, g(y 1 , y 2 ) = 0
Técnica de la Función Generatriz de Momentos Teorema 4.18 : Si  x 1 ,  x 2 ,…, y  x n , son variables aleatorias independientes y  y  =  x 1  +  x 2  +…+  x n , entonces  donde M xi  (t) es el valor de la función generatriz de momentos de  x i  en t

Más contenido relacionado

ODP
Teorema de Bayes
DOCX
Variables aleatorias discretas y continuas
PPTX
Valor esperado o media
PDF
Variables aleatorias discretas y continuas
PPT
Transparencias variable aleatoria_discreta2016
PDF
Tema 4 variables aleatorias continuas
PPTX
Distribuciones de variables aleatorias discretas y continuas
PDF
Variable aleatoria
Teorema de Bayes
Variables aleatorias discretas y continuas
Valor esperado o media
Variables aleatorias discretas y continuas
Transparencias variable aleatoria_discreta2016
Tema 4 variables aleatorias continuas
Distribuciones de variables aleatorias discretas y continuas
Variable aleatoria

La actualidad más candente (20)

PPS
Probabilidad Variables Aleatorias
DOCX
VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFB
PPTX
Variable.aleatoria
PPT
Variables aleatorias discretas
DOCX
Qué es probabilidad
PPT
DefinicióN Variable Aleatoria Discreta
PPTX
Diapositivas 2
PDF
Unidad III generacion de variables aleatorias
PPT
Probabilidades
ODP
Variables Aleatorias
PDF
Variables Aleatorias y Distribuciones de Probabilidad
PDF
Variable aleatoria y Distribuciónes de Probabilidad
PDF
variables aleatorias discretas y continuas
PPTX
Variables aleatorias
PPTX
Distribuciones de probabilidad discreta
DOCX
Ejemplos
PDF
Tema 12. variables aleatorias. binomial y normal
PDF
Variables aleatorias y distribuciones de probabilidad
PPTX
Distribución de probabilidades.
PPTX
Presentación Distribución de Probabilidad
Probabilidad Variables Aleatorias
VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFB
Variable.aleatoria
Variables aleatorias discretas
Qué es probabilidad
DefinicióN Variable Aleatoria Discreta
Diapositivas 2
Unidad III generacion de variables aleatorias
Probabilidades
Variables Aleatorias
Variables Aleatorias y Distribuciones de Probabilidad
Variable aleatoria y Distribuciónes de Probabilidad
variables aleatorias discretas y continuas
Variables aleatorias
Distribuciones de probabilidad discreta
Ejemplos
Tema 12. variables aleatorias. binomial y normal
Variables aleatorias y distribuciones de probabilidad
Distribución de probabilidades.
Presentación Distribución de Probabilidad
Publicidad

Destacado (15)

PPT
Concurso De FotografìA MatemàTica
PPTX
Capacitación UGEL 02 LA ESPERANZA Matemática
DOCX
Probabilidad condicional ejemplos (2)
DOCX
Teorema de bayes, probabilidad total & probabilidad condicional
DOCX
La varianza
PPTX
Media aritmética, desviación media, varianza y desviación estándar
PPS
Varianza, desviación estándar, histograma y gráfica circular
PDF
El concepto de varianza
PDF
Teorema de bayes
PDF
Ejemplos del teorema de Bayes
PPT
Media, moda y mediana
PPT
Media Mediana Y Moda de Datos Agrupados
PPTX
Probabilidad condicional
PPTX
Probabilidad condicional e_independiente
PPTX
Calculo de la varianza
Concurso De FotografìA MatemàTica
Capacitación UGEL 02 LA ESPERANZA Matemática
Probabilidad condicional ejemplos (2)
Teorema de bayes, probabilidad total & probabilidad condicional
La varianza
Media aritmética, desviación media, varianza y desviación estándar
Varianza, desviación estándar, histograma y gráfica circular
El concepto de varianza
Teorema de bayes
Ejemplos del teorema de Bayes
Media, moda y mediana
Media Mediana Y Moda de Datos Agrupados
Probabilidad condicional
Probabilidad condicional e_independiente
Calculo de la varianza
Publicidad

Similar a 0 Prob4 (20)

PDF
Esperanza,Varianza y Covarianza
PPT
PPT
7820 7025 ot_07
PDF
Estadística i tema 3
PPTX
Estadistica
PPTX
Variable aletoria
PDF
Unidad II Estadística clase 1 variables aleatorias.pdf
PDF
Apartado4
PDF
Variables aleatorias
PDF
Variables aleatorias
PDF
Variables aleatorias
PDF
Estadistica 2
PDF
02.6 varianza
PDF
02.6 varianza
PDF
Probabilidades ii 2021 a semana 3
PPT
Ejemplos Explicados
PDF
Vector Aleatorio Continuo estadistica aplicada en pdf
PPT
Ejemplos Explicados
Esperanza,Varianza y Covarianza
7820 7025 ot_07
Estadística i tema 3
Estadistica
Variable aletoria
Unidad II Estadística clase 1 variables aleatorias.pdf
Apartado4
Variables aleatorias
Variables aleatorias
Variables aleatorias
Estadistica 2
02.6 varianza
02.6 varianza
Probabilidades ii 2021 a semana 3
Ejemplos Explicados
Vector Aleatorio Continuo estadistica aplicada en pdf
Ejemplos Explicados

0 Prob4

  • 1. Modelos Estocásticos Esperanza Matemática SESIÓN 04
  • 2. Esperanza Matemática 1 Definición 4.1 : Si x es una variable aleatoria discreta y f(x) es el valor de su distribución de probabilidad en x, el valor esperado de esta variable aleatoria es E(x) =  x x  f(x) En forma correspondiente, si x es una variable aleatoria continua y f(x) es el valor de su densidad de probabilidad en x, el valor esperado de esta variable aleatoria es
  • 3. Esperanza Matemática 2 Teorema 4.1 : Si x es una variable aleatoria discreta y f(x) es el valor de su distribución de probabilidad en x, el valor esperado de la variable aleatoria g( x ) es E[g( x )] =  x g(x)  f(x) En forma correspondiente, si x es una variable aleatoria continua y f(x) es el valor de su densidad de probabilidad en x, el valor esperado de la variable aleatoria g( x ) es
  • 4. Esperanza Matemática 3 Teorema 4.2 : Si a y b son constantes, entonces E(a x +b) =a E( x ) + b Teorema 4.3 : Si c 1 , c 2 ,…, y c n son constantes, entonces
  • 5. Esperanza Matemática 4 Teorema 4.4 : Si x y y son variables aleatorias discretas y f(x,y) es el valor de su distribución de probabilidad conjunta en (x,y), el valor esperado de la variable aleatoria g( x , y ) es E[g( x,y )] =  x  y g(x,y)f(x,y) En forma correspondiente, si x y y son variables aleatorias continuas y f(x,y) es el valor de su densidad conjunta en (x,y), el valor esperado de la variable aleatoria g( x,y ) es
  • 6. Esperanza Matemática 5 Teorema 4.5 : Si c 1 , c 2 ,…, y c n son constantes, entonces
  • 7. Momentos 1 Definición 4.2 : El r-ésimo momento con respecto al origen de la variable aleatoria x , representado por  ’ r, , es el valor esperado de x r ; en forma simbólica se tiene para r = 0, 1, 2 ,3,…, cuando x es discreta y cuando x es continua
  • 8. Momentos 2 Definición 4.3 :  ’ r se conoce como la media de la distribución de x, o simplemente la media de x, y está denotada por  Definición 4.4 : El r-’esimo momento con respecto a la media de la variable aleatoria x, denotado por  r, , es el valor esperado de (x-  ) r, simbólica se tiene para r = 0, 1, 2 ,3,…, cuando x es discreta y cuando x es continua
  • 9. Momentos 3 Definición 4.5 :  2 se denomina varianza de la distribución de x , o simplemente varianza de x , y se representa mediante  2 , var ( x ) o V( x ). La raíz cuadrada positiva de la varianza recibe el nombre de desviación estándar y se representa por  ( x ) Teorema 4.6 :  2 =  ’ 2 -  2
  • 10. Momentos 4 Teorema 4.7 : Si x tiene varianza  2 entonces var (a x +b) = a 2  2 Teorema 4.8 : ( Teorema de Tchebycheff ) Si  y  son, respectivamente, la media y la desviación estándar de la variable aleatoria x , entonces para una constante positiva k cualquiera la probabilidad es cuando menos 1 - 1/k 2 de que x tomará un valor contenido en k desviaciones estándar de la media; en forma simbólica se tiene, o
  • 11. Función Generatriz de Momentos 1 Definición 4.6 : La función generatriz de momentos de la variable aleatoria x , donde exista, está dada por cuando x es discreta y cuando x es continua
  • 12. Función Generatriz de Momentos 2 Teorema 4.9 : Teorema 4.10 : Si a y b son constantes, entonces
  • 13. Momentos Producto 1 Definición 4.7 : El r-ésimo y s-ésimo momento producto con respecto al origen de las variables aleatorias x y y , representado por  ’ r,s , es el valor esperado de x r y s ; en forma simbólica, se tiene para r = 0, 1, 2,… y s = 0, 1, 2,…, cuando x y y son discretas y cuando x y y son continuas
  • 14. Momentos Producto 2 Definición 4.8 : El r-ésimo y s-ésimo momento producto con respecto a las medias respectivas de las variables aleatorias x y y , representado por  r,s , es el valor esperado de (x-  x ) r (y-  y ) s ; en forma simbólica, se tiene para r = 0, 1, 2,… y s = 0, 1, 2,…, cuando x y y son discretas y cuando x y y son continuas
  • 15. Momentos Producto 3 Definición 4.9 :  1,1 recibe el nombre de covarianza de x y y , y se representa por medio de  x , y , cov ( x , y ) o C ( x , y ) Teorema 4.11:  x , y =  ’ 1,1 -  x  y Teorema 4.12: Si x y y son independientes, entonces E( xy ) = E( x ) E( y ) y  x , y = 0 Teorema 4.13: Si x 1 , x 2 , …y x n son independientes, entonces E( x 1 x 2 …x n ) = E( x 1 ) E( x 2 ) …E( x n )
  • 16. Momentos de Combinaciones Lineales 1 Teorema 4.14: Si x 1 , x 2 , …y x n son variables aleatorias y donde a 1 , a 2 ,…a n son constantes, entonces donde la doble suma se extiende sobre todos los valores de i y j, de 1 a n, para los cuales i < j
  • 17. Momentos de Combinaciones Lineales 2 Corolario: Si las variables aleatorias x 1 , x 2 , …y x n son independientes y entonces
  • 18. Momentos de Combinaciones Lineales 3 Teorema 4.15: Si las variables aleatorias x 1 , x 2 , …y x n son independientes y y donde a 1 , a 2 ,…,a n , b 1 , b 2 ,…,b n son constantes, entonces
  • 19. Momentos de Combinaciones Lineales 4 Corolario: Si las variables aleatorias x 1 , x 2 , …y x n son independientes y y entonces
  • 20. Esperanzas Condicionales Definición 4.10: Si x es una variable aleatoria discreta y f(xly) es el valor de la distribución de probabilidad condicional de x dada y = y en x, la esperanza condicional de  ( x ) dada y = y es En forma correspondiente, si x es la variable aleatoria continua y f(xly) es el valor de la densidad de probabilidad condicional de x dada y = y en x, la esperanza condicional de  ( x ) dada y = y es
  • 21. Técnica de Transformación: una variable Teorema 4.16 : Sea f(x) el valor de la densidad de probabilidad de la variable aleatoria continua x en x. Si la función dada por y = u(x) es diferenciable y creciente o decreciente para todos los valores contenidos en el rango de x para los cuales f(x)  0, entonces, para estos valores de x, la ecuación y = u(x) puede resolverse de manera única para cada x con el fin de producir x = w(y) y para los valores de y correspondientes la densidad de probabilidad de y = u( x ) está dada por g(y) = f[w(y)][w’(y)] siempre que u’ (x)  0. En cualquier parte, g(y) = 0
  • 22. Técnica de Transformación: dos variables 1 Teorema 4.17 : Sea f(x 1 ,x 2 ) el valor de la densidad de probabilidad conjunta de las variables aleatorias continuas x 1 y x 2 en (x 1 ,x 2 ) . Si las funciones dadas por y 1 = u 1 (x 1 ,x 2 ) y y 2 = u 2 (x 1 ,x 2 ) son parcialmente diferenciables con respecto a x 1 y x 2 y representan una transformación biunívoca de todos los valores contenidos en el rango de x 1 y x 2 para los cuales f(x 1 ,x 2 ) = 0, entonces, para estos valores de x 1 y x 2 , las ecuaciones y 1 = u 1 (x 1 ,x 2 ) y y 2 = u 2 (x 1 ,x 2 ) pueden resolverse de manera única para cada x 1 y x 2 con el fin de producir x 1 = w 1 (y 1 , y 2 ) y x 2 = w 2 (y 1 , y 2 ), y para los valores correspondientes de y 1 y y 2 la densidad de probabilidad conjunta de y 1 = u 1 ( x1 , x 2 ) y y 2 = u 2 ( x1 , x 2 ) está dada por g (y 1 , y 2 ) = f [w 1 (y 1 , y 2 ), w 2 (y 1 , y 2 )] IJI
  • 23. Técnica de Transformación: dos variables 2 Aquí, J es el Jacobiano de la transformación, dado por el determinante En cualquier otra parte, g(y 1 , y 2 ) = 0
  • 24. Técnica de la Función Generatriz de Momentos Teorema 4.18 : Si x 1 , x 2 ,…, y x n , son variables aleatorias independientes y y = x 1 + x 2 +…+ x n , entonces donde M xi (t) es el valor de la función generatriz de momentos de x i en t