Republica Bolivariana de Venezuela
Instituto Universitario Politécnico
“Santiago Mariño”
Barcelona, Estado – Anzoátegui
Profesor:
Alumna:
Pedro Beltrán Teodalys Hernández C.I:
28.692.116
Marzo del 2019.
VARIABLES ALEATORIAS
Una variable aleatoria es una función que asigna un valor, usualmente numérico, al
resultado de un experimento aleatorio. Por ejemplo, los posibles resultados de
tirar un dado dos veces: (1, 1), (1, 2), etc. o un número real (p.e., la temperatura
máxima medida a lo largo del día en una ciudad concreta).
• PROPIEDADES
(Variable aleatoria). Dado un espacio de probabilidad (Ω, A,Pr), una variable
aleatoria es cualquier función, X,
X : Ω −→ R
ω −→ X(ω)
Que asocia a cada suceso elemental un número real, verificando que
PrX (B) = Pr[X ∈ B] = Pr{ω ∈ Ω | X(ω) ∈ B} ∀B ⊂ R.
En general emplearemos las siglas v.a. para referirnos a una variable aleatoria.
Para caracterizar la distribución de probabilidad inducida por una v.a. X
definiremos
una nueva función más sencilla de manejar:
• EJEMPLO:
De una caja que contiene 5 bolas numeradas del 1 al 5 se extraen 3 bolas
una por una y sin reposición. Entonces
X: El mayor de los tres números
sacados, es una variable aleatoria.
El espacio muestral es:
S = {(1,2,3), (1,2,4), (1,2,5), (1,3,4), (1,3,5), (1,4,5), (2,3,4), (2,3,5),
(2,4,5), (3,4,5)}
y la variable aleatoria X asume los valores: 3, 4 y 5. Por ejemplo,
X ( ) 2,3,4
=4
VARIABLES DISCRETAS
Una variable discreta es una variable que no puede tomar algunos valores dentro
de un mínimo conjunto numerable, quiere decir, no acepta cualquier valor,
únicamente aquellos que pertenecen al conjunto. En estas variables se dan de
modo coherente separaciones entre valores observables sucesivos. Dicho con más
rigor, se determina una variable discreta como la variable que hay entre dos
valores observables (potencialmente), hay por lo menos un valor no observable
(potencialmente).
• EJEMPLO:
El número de animales en una granja (0, 1, 2, 3, 4, 5, 6, 7, ......).
El número de hijos en una familia (1; 2; 3; 4; ...).
El número de quejas de los clientes o el número de fallas o defectos.
VARIABLE CONTINUA
Una variable continua puede tomar un valor fijo dentro de un intervalo
determinado. Y siempre entre dos valores observables va a existir un tercer
valor intermedio que también podría tomar la variable continua. Una variable
continua toma valores a lo largo de un continuo, esto es, en todo un intervalo
de valores. Un atributo esencial de una variable continua es que, a diferencia
de una variable discreta, nunca puede ser medida con exactitud; el valor
observado depende en gran medida de la precisión de los instrumentos de
medición. Con una variable continua hay inevitablemente un error de medida.
• EJEMPLO:
La estatura de una persona (1.72m, 1.719m, 1.7186m....).
El tiempo que toma un atleta en recorrer 100 metros planos, ya que este
tiempo puede tomar valores como 9,623 segundos; 10,456485 segundos;
12,456412 segundos; es decir, un intervalo de valores.
FUNCION DE DISTRIBUCION ACUMULADA
En la teoría de la probabilidad y en estadística, la Función de Distribución Acumulada
(FDA, designada también a veces simplemente como FD) asociada a una variable
aleatoria real: X (mayúscula) sujeta a cierta ley de distribución de probabilidad, es una
función matemática de la variable real: x (minúscula); que describe la probabilidad de
que X tenga un valor menor o igual que x .
Intuitivamente, asumiendo la función f como la ley de distribución de probabilidad, la
FDA sería la función con la recta real como dominio, con imagen del área hasta aquí de
la función f, siendo aquí el valor x para la variable aleatoria real X.
La FDA asocia a cada valor x, la probabilidad del evento: "la variable X toma valores
menores o iguales a x".
El concepto de FDA puede generalizarse para modelar variables aleatorias
multivariantes definidas en :
• A FDA de una variable aleatoria: X, uniformemente distribuida en el intervalo
unitario [0, 1]. queda definida por:
F(x) = 0, si x < 0;
F(x) = x, si 0 ≤ x ≤ 1;
F(x) = 1, si x > 1.
Si X toma sólo los valores 0 y 1, con igual probabilidad (X sigue una distribución de
Bernoulli con p = 1/2). Entonces su FDA viene dada por:
F(x) = 0, si x < 0;
F(x) = 1/2, si 0 ≤ x < 1;
F(x) = 1, si x ≥ 1.
ESPERANZA MATEMATICA
En estadística la esperanza matemática (también llamada esperanza, valor esperado,
media poblacional o media) de una variable aleatoria X , es el número E {X} o E{X} que
formaliza la idea de valor medio de un fenómeno aleatorio.
Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la
probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho
suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de
un experimento aleatorio cuando la probabilidad de cada suceso se mantiene
constante y el experimento se repite un elevado número de veces. Cabe decir que el
valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en
el sentido más general de la palabra (el valor de la esperanza puede ser improbable o
incluso imposible).
• EJEMPLO:
El valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos
hacer el cálculo:
E (X) = 1×1/(6 )+2×1/6+3×1/6+4×1/6+5×1/6+6×1/6
=(1+2+3+4+5+6)/6=3,5
y cabe destacar que 3,5 no es un valor posible al tirar el dado. En este caso, en el que
todos los sucesos son de igual probabilidad, la esperanza es igual a la media
aritmética.
• PROPIEDADES:
Si X es siempre positiva, entonces siempre lo es E(X).
La esperanza matemática de una constante es igual a esa misma
constante, es decir, si c es una constante, entonces . E {c} = c
Si X está delimitada por dos números reales, a y b, tal que: a < X < b,
entonces también lo está su media: α<E(X)<b
Linealidad. Si existe E(X) y se considera Y= α+bX, entonces
E(Y)=E(α+bX)= α+bE(X)
VALOR ESPERADO
El valor que se espera obtener de un experimento estadístico se llama el valor
esperado. También llamado "esperanza matemática". También lo llamamos
"media" y esta es la palabra que vamos a seguir usando. Si tiramos una
moneda 10 veces, esperamos que salga 5 veces "cara" y 5 veces "cruz".
Esperamos obtener este valor porque la probabilidad de que salga "cara" es
0,5, y si lanzamos la moneda 10 veces, obtenemos 5. Por lo tanto, 5 es la
media. Para formalizar este particular ejemplo de la media, si p es la
probabilidad y n el número de eventos, la media es a = np. Esta es la forma
de la media cuando se puede expresar la probabilidad por medio de la
distribución binomial.
VARIANZA Y DESVIACION ESTANDAR
 Desviación Estándar:
La desviación estándar (σ) mide cuánto se separan los datos.
La fórmula es fácil: es la raíz cuadrada de la varianza. Así que, "¿qué es la
varianza?"
 Varianza:
La varianza (que es el cuadrado de la desviación estándar: σ2) se define así:
Es la media de las diferencias con la media elevadas al cuadrado.
En otras palabras, sigue estos pasos:
1. Calcula la media (el promedio de los números)
2. Ahora, por cada número resta la media y eleva el resultado al cuadrado (la
diferencia elevada al cuadrado).
3. Ahora calcula la media de esas diferencias al cuadrado. (¿Por qué al cuadrado?)
• EJEMPLO:
Tú y tus amigos habéis medido las alturas de nuestros perros (en milímetros)
Las alturas (de los hombros) son: 600mm, 470mm, 170mm, 430mm y 300mm.
Calcula la media, la varianza y la desviación estándar.
Respuesta:
Media = 600 + 470 + 170 + 430 + 300 = 1970 = 394
5 5
Así que la altura media es 394 mm. Vamos a dibujar esto en el gráfico:
Ahora calculamos la diferencia de cada altura con la media:
Para calcular la varianza, toma cada diferencia, elévala al cuadrado, y haz la
media:
Varianza: σ2 = 2062 + 762 + (-224)2 + 362 + (-94)2 = 108,520
= 21,704
5 5
Así que la varianza es 21,704.
Y la desviación estándar es la raíz de la varianza, así que:
Desviación estándar: σ = √21,704 = 147
y lo bueno de la desviación estándar es que es útil: ahora veremos qué
alturas están a distancia menos de la desviación estándar (147mm) de la
media:
Así que usando la desviación estándar tenemos una manera "estándar" de
saber qué es normal, o extra grande o extra pequeño.
Los Rottweilers son perros grandes. Y los Dachsunds son un poco
menudos... ¡pero que no se enteren.
*Nota: ¿por qué al cuadrado?
Elevar cada diferencia al cuadrado hace que todos los números sean
positivos (para evitar que los números negativos reduzcan la varianza)
Y también hacen que las diferencias grandes se destaquen. Por ejemplo
1002=10,000 es mucho más grande que 502=2,500.
Pero elevarlas al cuadrado hace que la respuesta sea muy grande, así que lo
deshacemos (con la raíz cuadrada) y así la desviación estándar es mucho
FUNCION GENERADORA DE MOMENTOS
En probabilidad y estadística, la función generadora de momentos o función
generatriz de momentos de una variable aleatoria X es
Mx(t)≔E(e^tX ),t∈R,
Siempre que esta esperanza exista.
La función generadora de momentos se llama así porque, si existe en un
entorno de t = 0, permite generar los momentos de la distribución de
probabilidad:
E(X^n )=M_X^((n) ) (0)=d^(n M_X )/〖dt〗^n (0).
Si la función generadora de momentos está definida en tal intervalo, entonces
determina unívocamente a la distribución de probabilidad
Un problema clave con las funciones generadoras de momentos es que los
momentos y la propia función generadora no siempre existen, porque las
integrales que los definen no son siempre convergentes. Por el contrario, la
función característica siempre existe y puede usarse en su lugar.
De forma general, donde X=(X1,….Xn) es un vector aleatorio n-dimensional,
se usa t•X=t^T X en lugar de tX:
M_x (t)≔E(e^tTX ).
DISTRIBUCIONES DISCRETAS DE PROBABILIDAD
BERNOULLI
En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución
dicotómica), nombrada así por el matemático suizo Jacob Bernoulli, es una
distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito
(ρ) y valor 0 para la probabilidad de fracaso (q=1-ρ
Si X es una variable aleatoria que mide el "número de éxitos", y se realiza un único
experimento con dos posibles resultados (éxito o fracaso), se dice que la variable
aleatoria X se distribuye como una Bernoulli de parámetro ρ.
X~Be(ρ)
Su función de probabilidad viene definida por:
f(x)=ρ^x (1-〖ρ)〗^(1-x) con x={0,1}
BINOMIAL
Esta distribución se basa en el proceso de Bernoulli. Se denominan procesos de tipo
Bernoulli, a todo experimento consistente en una serie de pruebas repetidas,
caracterizadas por tener resultados que se pueden clasificar en si verifican o no
cierta propiedad o atributo, siendo aleatorios e independientes.
• EJEMPLO:
Sea el caso de una droga X, con una dosis mortal de 1g/100 ml para cobayos
experimentales, en el 25% de los casos. Aplicando esta dosis a cien cobayos se desea
saber cuánto vale la probabilidad de que mueran veinte de ellos.
Primero analizaremos si este caso cumple los supuestos básicos de una distribución
binomial:
Los cobayos mueren (éxito) o sobreviven (fracaso).
Que un cobayo muera con la dosis, no significa que lo hará el siguiente (
independencia) pues no se trata de una epidemia.
La probabilidad de que mueran se mantiene constante a lo largo de la serie de
pruebas (p = 0,25).
Entonces, como si cumple los supuestos básicos, aplicamos la fórmula:
GEOMETRICA
La distribución geométrica es un modelo adecuado para aquellos procesos en los que
se repiten pruebas hasta la consecución del éxito a resultado deseado y tiene
interesantes aplicaciones en los muestreos realizados de esta manera. También
implica la existencia de una dicotomía de posibles resultados y la independencia de
las pruebas entre sí.
Proceso experimental del que se puede hacer derivar
Esta distribución se puede hacer derivar de un proceso experimental puro o de
Bernouilli en el que tengamos las siguientes características.
El proceso consta de un número no definido de pruebas o experimentos
separados o separables. El proceso concluirá cuando se obtenga por
primera vez el resultado deseado (éxito).
Cada prueba puede dar dos resultados mutuamente excluyentes: A y
no A
La probabilidad de obtener un resultado A en cada prueba es p y la de
obtener un resultado no A es q
siendo (p + q = 1).
BINOMIAL NEGATIVA
En estadística la distribución binomial negativa es una distribución de
probabilidad discreta que incluye a la distribución de Pascal. Es una
ampliación de las distribuciones geométricas, utilizada en procesos en los
cuales se ve necesaria la repetición de ensayos hasta conseguir un número
de casos favorables (primer éxito).
La distribución Binomial es una distribución de probabilidad discreta que
mide el número de éxitos en una secuencia de n ensayos de Bernoulli
independientes entre sí, con una probabilidad p de ocurrencia de éxitos en
los ensayos.
Un experimento de Bernoulli se caracteriza por ser dicotómico, es decir,
sólo son posibles dos resultados ( A y no A).
La variable aleatoria es el número de ensayos Bernoulli necesarios para
obtener el primer éxito. Si deseamos conocer el número de estos para
conseguir n éxitos, la variable aleatoria es binomial negativa.
MULTINOMIAL
Este modelo se puede ver como una generalización del Binomial en el que, en
lugar de tener dos posibles resultados, tenemos r resultados posibles.
Supongamos que el resultado de una determinada experiencia puede ser r
valores distintos: A1, A2, ..., Ar cada uno de ellos con probabilidad p1, p2, ...,
pr, respectivamente.
Si repetimos la experiencia n veces en condiciones independientes, podemos
preguntarnos la probabilidad de que el suceso A1 aparezca k1 veces, el suceso
A2, k2 veces y así sucesivamente:
Al modelo estadístico que nos da dicha probabilidad se le denomina
Multinomial, y su función de densidad viene dada por:
Como se ve, el modelo Multinomial queda definido por los parámetros (n, p1,
p2, ..., pr). La fórmula anterior puede deducirse de forma análoga al caso
Binomial. En realidad, si tomamos r = 2 tenemos exactamente el modelo
Binomial.
Se debe destacar que este modelo es un ejemplo de distribución multivariante,
es decir, de distribución conjunta de varias (r) variables aleatorias. En efecto, si
definimos la variable aleatoria X1 como número de veces que se produce el
suceso A1 de un total de n experiencias, y así sucesivamente, tenemos un
conjunto de r variables aleatorias discretas cuya función de densidad conjunta
(valorada a la vez) viene definida por la anterior fórmula. Nótese que si
consideramos cada una de estas variables Xi (i = 1, 2, ..., r) por separado, su
distribución es la Binomial de parámetros n y pi.
POISSON
Se denominan procesos de tipo Poisson, a todo experimento consistente en una
serie de pruebas repetidas dentro de un continuo, caracterizadas por tener
resultados que se pueden clasificar en si verifican o no, cierta propiedad o
atributo, siendo aleatorios e independientes del lugar que ocurren dentro del
continuo.
Para identificar un proceso Poisson en una serie de pruebas repetidas, se
deben verificar tres condiciones:
• Sucesos puntuales: Los sucesos ocurren dentro de un continuo (espacio
o tiempo) y ocupan una parte infinitesimal del mismo. Es decir, en el espacio
un suceso es puntual y en el tiempo es instantáneo. En términos prácticos,
los sucesos no ocupan una parte apreciable del continuo.
• Sucesos independientes: La ocurrencia de un suceso en un lugar del
continuo no condiciona la ocurrencia del anterior (o del siguiente) en otra
parte del mismo.
• Probabilidad constante: La probabilidad de ocurrencia de un suceso en
un lugar del continuo es la misma en todo punto del mismo.
• EJEMPLO:
Supongamos que estamos investigando la seguridad de una peligrosa intelección de
calles, los registros policíacos indican una media de 5 accidentes mensuales en esta
intersección.
El departamento de seguridad vial desea que calculemos la probabilidad de que en
cualquier mes ocurran exactamente 3 accidentes.
Analizando el problema, esta situación se ajusta a un proceso de Poisson, hay una
secuencia de llegada (por más que exista un choque múltiple, siempre hay uno que
choca primero). Tenemos la siguiente información:
l = 5 accidentes por mes
x = 3 accidentes por mes
Aplicando la fórmula de la probabilidad de Poisson:
En teoría de la probabilidad la distribución hipergeométrica es una distribución
discreta relacionada con muestreos aleatorios y sin reemplazo. Suponga que se
tiene una población de N elementos de los cuales, d pertenecen a la categoría Ay N-
d a la B. La distribución hipergeométrica mide la probabilidad de obtener x ( )
elementos de la categoría A en una muestra sin reemplazo de n elementos de la
población original.
HIPERGEOMETRICA
Hasta ahora hemos analizado distribuciones que modelizaban situaciones en las
que se realizaban pruebas que entrañaban una dicotomía (proceso de Bernouilli) de
manera que en cada experiencia la probabilidad de obtener cada uno de los dos
posibles resultados se mantenía constante. Si el proceso consistía en una serie de
extracciones o selecciones ello implicaba la reposición de cada extracción o
selección, o bien la consideración de una población muy grande. Sin embargo si la
población es pequeña y las extracciones no se remplazan las probabilidades no se
mantendrán constantes. En ese caso las distribuciones anteriores no nos servirán
para la modelizar la situación. La distribución hipergeométrica viene a cubrir esta
necesidad de modelizar procesos de Bernouilli con probabilidades no constantes
(sin reemplazamiento).
La distribución hipergeométrica es especialmente útil en todos aquellos casos en
los que se extraigan muestras o se realizan experiencias repetidas sin devolución
del elemento extraído o sin retornar a la situación experimental inicial.
Las probabilidades de obtener un resultado A y de obtener un resultado no A
varían en las sucesivas pruebas, dependiendo de los resultados anteriores.
(Derivación de la distribución) Si estas circunstancias a le autorizamos de forma
que la variable aleatoria X sea el número de resultados A obtenidos en n pruebas la
distribución de X será una Hipergeométrica de parámetros N,n,p .
POISSON COMO APROXIMACION A LA BINOMIAL E HIPERGEOMETRICA
En este caso se determinarán probabilidades de experimentos Binomiales,
pero que dadas sus características, es posible aproximarlas con la
distribución de Poisson, estas características son, n ¥® ( n es muy grande) y
p®0 (p es muy pequeña), por lo que:
La expresión anterior solo se cumple cuando n ®¥ y p®0, solo en este caso,
si esto no se cumple, la aproximación no se puede llevar a efecto, por lo que
la fórmula a utilizar en este caso sería:
Donde:
l =m= np = número esperado de éxitos = tasa promedio de éxitos
n = número de repeticiones del experimento
p = probabilidad de éxito = p(éxito)
Una regla general aceptable es emplear esta aproximación si n³20 y p£0.05: sí n³100, la
aproximación es generalmente excelente siempre y cuando np£10.
Ejemplos:
1. Se sabe que el 5% de los libros encuadernados en cierto taller tienen encuadernaciones
defectuosas. Determine la probabilidad de que 2 de 100 libros encuadernados en ese taller, tengan
encuadernaciones defectuosas, usando, a) la fórmula de la distribución Binomial, b) la
aproximación de Poisson a la distribución Binomial.
Solución:
a) n = 100
p = 0.05 = p(encuadernación defectuosa) = p(éxito)
q = 0.95 = p(encuadernación no defectuosa) = p(fracaso)
x = variable que nos define el número de encuadernaciones defectuosas en la muestra = = 0, 1, 2,
3,....,100 encuadernaciones defectuosas
b)n = 100 encuadernaciones
p = 0.05
l = np = (100)(0.05)= 5
x = variable que nos define el número de encuadernaciones defectuosas en la muestra = = 0, 1, 2,
3,....,100 encuadernaciones defectuosas
Distribuciones continuas de
Probabilidades
UNIFORME
La distribución o modelo uniforme puede considerarse como proveniente de un
proceso de extracción aleatoria. El planteamiento radica en el hecho de que la
probabilidad se distribuye uniformemente a lo largo de un intervalo. Así: dada
una variable aleatoria continua, x, definida en el intervalo [a,b] de la recta real,
diremos que x tiene una distribución uniforme en el intervalo [a,b] cuando su
función de densidad para sea: para x Î [a,b].
Su representación grafica es:
De manera que la distribución será:
EXPONENCIAL
A pesar de la sencillez analítica de sus funciones de definición, la
distribución exponencial tiene una gran utilidad práctica ya que podemos
considerarla como un modelo adecuado para la distribución de probabilidad
del tiempo de espera entre dos hechos que sigan un proceso de Poisson. De
hecho, la distribución exponencial puede derivarse de un proceso
experimental de Poisson con las mismas características que las que
enunciábamos al estudiar la distribución de Poisson, pero tomando como
variable aleatoria, en este caso, el tiempo que tarda en producirse un hecho
Obviamente, entonces, la variable aleatoria será continua. Por otro lado,
existe una relación entre el parámetro a de la distribución exponencial, que
más tarde aparecerá, y el parámetro de intensidad del proceso l, esta relación
es a = l
Al ser un modelo adecuado para estas situaciones tiene una gran utilidad en
los siguientes casos:
Distribución del tiempo de espera entre sucesos de un proceso de Poisson
·Distribución del tiempo que transcurre hasta que se produce un fallo, si se
cumple la condición que la probabilidad de producirse un fallo en un instante no
depende del tiempo transcurrido. Aplicaciones en fiabilidad y teoría de la
supervivencia.
GAMMA
Este modelo es una generalización del modelo Exponencial ya que, en
ocasiones, se utiliza para modelar variables que describen el tiempo hasta que
se produce p veces un determinado suceso.
Su función de densidad es de la forma:
Como vemos, este modelo depende de dos parámetros positivos: α y p. La función
Γ(p) es la denominada función Gamma de Euler que representa la siguiente integral:
Q ue verifica Γ(p + 1) = pΓ(p), con lo que, si p es un número entero positivo,
Γ(p + 1) = p!
El siguiente programa permite visualizar la forma de la función de densidad
de este modelo (para simplificar, se ha restringido al caso en que p es un
número entero).
BETA
Utilice la distribución beta para variables aleatorias entre 0 y 1. La
distribución beta suele utilizarse para modelar la distribución de estadísticos
de orden (por ejemplo, el estadístico de orden késimo de una muestra de
variables n uniformes (0, 1) tiene una distribución beta (k, n + 1 – k)) y para
modelar eventos que se definen por valos mínimos y máximos. La escala de la
distribución beta suele modificarse para modelar el tiempo hasta la
culminación de una tarea. La distribución beta también se usa en estadísticas
bayesianas, por ejemplo, como la distribución de valores previos de una
La distribución beta es una distribución continua definida por dos parámetros
de forma. La distribución puede adoptar diferentes formas dependiendo de los
valores de los dos parámetros.
WEIBULL
En teoría de la probabilidad y estadística, la distribución de Weibull es una
distribución de probabilidad continua. Recibe su nombre de Waloddi Weibull,
que la describió detalladamente en 1951, aunque fue descubierta inicialmente
por Fréchet (1927) y aplicada por primera vez por Rosin y Rammler (1933) para
describir la distribución de los tamaños de determinadas partículas.
Se trata de un modelo continúo asociado a variables del tipo tiempo de vida,
tiempo hasta que un mecanismo falla, etc. La función de densidad de este
modelo viene dada por:
Que, como vemos, depende de dos parámetros: α > 0 y β > 0, donde α es
un parámetro de escala y β es un parámetro de forma (lo que proporciona
una gran flexibilidad a este modelo).
La función de distribución se obtiene por la integración de la función de
densidad y vale:
NORMAL ESTANDARIZADA
La distribución normal estándar, o tipificada o reducida, es aquella que tiene
por media el valor cero, μ = 0, y por desviación típica la unidad, σ =1.
Su función de densidad es:
Su gráfica es:
NORMAL COMO APROXIMACION A LA BINOMIAL
En este caso se estarán calculando probabilidades de experimentos Binomiales de
una forma muy aproximada con la distribución Normal, esto puede llevarse a cabo
si n¥® y p = p(éxito) no es muy cercana a 0 y 1, o cuando n es pequeño y p tiene
un valor muy cercano a ½ ; esto es,
Donde:
x = variable de tipo discreto; solo toma valores enteros
m = np = media de la distribución Binomial
s = = desviación estándar de la distribución Binomial
Cuando ocurren las condiciones anteriores, la gráfica de la distribución
Binomial, es muy parecida a la distribución Normal, por lo que es adecuado
calcular probabilidades con la Normal en lugar de con la Binomial y de una
forma más rápida.
En resumen, se utiliza la aproximación Normal para evaluar probabilidades
Binomiales siempre que p no esté cercano a 0 o 1. La aproximación es
excelente cuando n es grande y bastante buena para valores pequeños de n si
p está razonablemente cercana a ½. Una posible guía para determinar cuando
puede utilizarse la aproximación Normal es tener en cuenta el cálculo de np y
nq. Sí ambos, np y nq son mayores o iguales a 5, la aproximación será buena.
Antes de empezar a resolver problemas con la aproximación Normal, es bueno
aclarar que se están evaluando probabilidades asociadas a una variable
discreta x, con una distribución que evalúa variables de tipo continuo como es
la Normal,
Por lo que z sufre un pequeño cambio como se muestra a continuación
Porqué vamos a sumar o a restar ½ a x?
Este es un factor de corrección debido a que se está evaluando
una variable discreta con una distribución continua, por lo que
hay que delimitar claramente desde que punto se va a evaluar la
variable, dicho de otra forma, en que límite de la barra (inferior o
superior) nos debemos posicionar para determinar la
probabilidad requerida, cada barra de probabilidad a evaluar
tiene como base la unidad, ese es el porqué del ± ½.

Más contenido relacionado

PPTX
L ochoa-distribuciones-probabilidad-discretas
PPTX
Valor esperado o media
PPT
Modelos probabilidades
PPT
Distribuciones continuas de probabilidad
PDF
Distribuciones de Probabilidad (Variable Aleatoria Continua)
PPTX
La clase
PPTX
Estadistica
L ochoa-distribuciones-probabilidad-discretas
Valor esperado o media
Modelos probabilidades
Distribuciones continuas de probabilidad
Distribuciones de Probabilidad (Variable Aleatoria Continua)
La clase
Estadistica

La actualidad más candente (20)

PDF
Distribucion Normal
PPT
20121109101108
PPT
20121010141000
PDF
Variables Aleatorias y Distribuciones de Probabilidad
PPT
Capítulo 06, Distribuciones discretas de probabilidad
PPTX
Ejercicio de probabilidad de distribución normal
PPTX
Distribucion de variable aleatoria discreta
PPT
Probabilidad 3
PPT
Distribucion Binomial
PDF
Demostraciones probabilidad
PDF
PDF
Distribuciones de probabilidad
PPTX
Variables aleatorias
PPT
3 unidad distrb prob continuas
PDF
Variables aleatorias
DOC
Estimacion de parametros
PDF
21065741 distribucion-uniforme
PDF
Variables aleatorias y distribución de probabilidad
PPTX
Distribuciones de probabilidad discretas
Distribucion Normal
20121109101108
20121010141000
Variables Aleatorias y Distribuciones de Probabilidad
Capítulo 06, Distribuciones discretas de probabilidad
Ejercicio de probabilidad de distribución normal
Distribucion de variable aleatoria discreta
Probabilidad 3
Distribucion Binomial
Demostraciones probabilidad
Distribuciones de probabilidad
Variables aleatorias
3 unidad distrb prob continuas
Variables aleatorias
Estimacion de parametros
21065741 distribucion-uniforme
Variables aleatorias y distribución de probabilidad
Distribuciones de probabilidad discretas
Publicidad

Similar a Estadistica (20)

PPTX
Estadistica 2
PPTX
Primera actividad-estadistica-ii
PPTX
Diapositivas probabilidades
PDF
Variables aleatorias
PDF
Variable aleatoria
PDF
VARIABLES ALEATORIAS .DIST PROBAB.pdf
PPTX
ESTADISTICA 1- IIIPARCIAL.PXLGFGHGFCXCFVXCC
PPTX
Sesion 2 analisis de decision valor esperado imformacion perfecta
PDF
Que es probabilidad
PDF
Distribución de Probabilidades Discretas (1).pdf
PPTX
Variables aleatorias1
PPTX
Edeli paz variable
DOCX
VARIABLES ALEATORIAS
PDF
04_variables_aleatorias03_modelo_de_simulacion_ac.pdf
PPTX
Variable aletoria
PDF
2° Distribución de Prob-Variable Aleatoria y Probabilidades-2.pdf
ODP
Teorema de Bayes
PPT
D1 repaso estadistica
PPT
Repaso estadistica y probabilidades
PDF
Variables aleatorias
Estadistica 2
Primera actividad-estadistica-ii
Diapositivas probabilidades
Variables aleatorias
Variable aleatoria
VARIABLES ALEATORIAS .DIST PROBAB.pdf
ESTADISTICA 1- IIIPARCIAL.PXLGFGHGFCXCFVXCC
Sesion 2 analisis de decision valor esperado imformacion perfecta
Que es probabilidad
Distribución de Probabilidades Discretas (1).pdf
Variables aleatorias1
Edeli paz variable
VARIABLES ALEATORIAS
04_variables_aleatorias03_modelo_de_simulacion_ac.pdf
Variable aletoria
2° Distribución de Prob-Variable Aleatoria y Probabilidades-2.pdf
Teorema de Bayes
D1 repaso estadistica
Repaso estadistica y probabilidades
Variables aleatorias
Publicidad

Último (20)

PDF
Presentacion_Resolver_CEM_Hospitales_v2.pdf
PPTX
nom-020-stps-221027181711-272h6bfa3.pptx
PPTX
EQUIPOS DE PROTECCION PERSONAL - LEY LABORAL.pptx
PPTX
PROCESOS DE REGULACION DE CRECIMIENTO.pptx
PPTX
PPT PE 7 ASOCIACIONES HUAMANGA_TALLER DE SENSIBILIZACIÓN_20.04.025.pptx
PDF
MODULO 1 Base Legal Nacional y sus aplicaciones.pdf
PDF
Suelo Solonchak edafología tipo de sueldo en San Luis Potosí
DOCX
Manual de Capacitación suelos trabajo edwin varon.docx
PDF
Vigas tipos, datos curiosos y contruccion
PPT
flujo de caja paa la evaluacion de proyectos
PPT
acero-estructural.ppt acero acero jjshsdkdgfh
PPTX
Instalaciones Electricas.pptx cables electricos
PPT
CLASE_1_CICLO_HIDROLOGICO_ALUMNOS_2015.ppt
PPT
empaque grava nuevo taladros de perforacion
PDF
Infraestructuras en la seguridad vial.pdf
PDF
experto-gestion-calidad-seguridad-procesos-quimicos-industriales-gu.pdf
PPTX
Identificacion de Peligros mediante GTC 45
PDF
Precomisionado de equipos introduccion.pdf
PPT
flujo de caja 2 para la evaluacion de proyectos
PDF
FUNCION CUADRATICA FUNCIONES RAIZ CUADRADA
Presentacion_Resolver_CEM_Hospitales_v2.pdf
nom-020-stps-221027181711-272h6bfa3.pptx
EQUIPOS DE PROTECCION PERSONAL - LEY LABORAL.pptx
PROCESOS DE REGULACION DE CRECIMIENTO.pptx
PPT PE 7 ASOCIACIONES HUAMANGA_TALLER DE SENSIBILIZACIÓN_20.04.025.pptx
MODULO 1 Base Legal Nacional y sus aplicaciones.pdf
Suelo Solonchak edafología tipo de sueldo en San Luis Potosí
Manual de Capacitación suelos trabajo edwin varon.docx
Vigas tipos, datos curiosos y contruccion
flujo de caja paa la evaluacion de proyectos
acero-estructural.ppt acero acero jjshsdkdgfh
Instalaciones Electricas.pptx cables electricos
CLASE_1_CICLO_HIDROLOGICO_ALUMNOS_2015.ppt
empaque grava nuevo taladros de perforacion
Infraestructuras en la seguridad vial.pdf
experto-gestion-calidad-seguridad-procesos-quimicos-industriales-gu.pdf
Identificacion de Peligros mediante GTC 45
Precomisionado de equipos introduccion.pdf
flujo de caja 2 para la evaluacion de proyectos
FUNCION CUADRATICA FUNCIONES RAIZ CUADRADA

Estadistica

  • 1. Republica Bolivariana de Venezuela Instituto Universitario Politécnico “Santiago Mariño” Barcelona, Estado – Anzoátegui Profesor: Alumna: Pedro Beltrán Teodalys Hernández C.I: 28.692.116 Marzo del 2019.
  • 2. VARIABLES ALEATORIAS Una variable aleatoria es una función que asigna un valor, usualmente numérico, al resultado de un experimento aleatorio. Por ejemplo, los posibles resultados de tirar un dado dos veces: (1, 1), (1, 2), etc. o un número real (p.e., la temperatura máxima medida a lo largo del día en una ciudad concreta). • PROPIEDADES (Variable aleatoria). Dado un espacio de probabilidad (Ω, A,Pr), una variable aleatoria es cualquier función, X, X : Ω −→ R ω −→ X(ω) Que asocia a cada suceso elemental un número real, verificando que PrX (B) = Pr[X ∈ B] = Pr{ω ∈ Ω | X(ω) ∈ B} ∀B ⊂ R. En general emplearemos las siglas v.a. para referirnos a una variable aleatoria. Para caracterizar la distribución de probabilidad inducida por una v.a. X definiremos una nueva función más sencilla de manejar:
  • 3. • EJEMPLO: De una caja que contiene 5 bolas numeradas del 1 al 5 se extraen 3 bolas una por una y sin reposición. Entonces X: El mayor de los tres números sacados, es una variable aleatoria. El espacio muestral es: S = {(1,2,3), (1,2,4), (1,2,5), (1,3,4), (1,3,5), (1,4,5), (2,3,4), (2,3,5), (2,4,5), (3,4,5)} y la variable aleatoria X asume los valores: 3, 4 y 5. Por ejemplo, X ( ) 2,3,4 =4 VARIABLES DISCRETAS Una variable discreta es una variable que no puede tomar algunos valores dentro de un mínimo conjunto numerable, quiere decir, no acepta cualquier valor, únicamente aquellos que pertenecen al conjunto. En estas variables se dan de modo coherente separaciones entre valores observables sucesivos. Dicho con más rigor, se determina una variable discreta como la variable que hay entre dos valores observables (potencialmente), hay por lo menos un valor no observable (potencialmente).
  • 4. • EJEMPLO: El número de animales en una granja (0, 1, 2, 3, 4, 5, 6, 7, ......). El número de hijos en una familia (1; 2; 3; 4; ...). El número de quejas de los clientes o el número de fallas o defectos. VARIABLE CONTINUA Una variable continua puede tomar un valor fijo dentro de un intervalo determinado. Y siempre entre dos valores observables va a existir un tercer valor intermedio que también podría tomar la variable continua. Una variable continua toma valores a lo largo de un continuo, esto es, en todo un intervalo de valores. Un atributo esencial de una variable continua es que, a diferencia de una variable discreta, nunca puede ser medida con exactitud; el valor observado depende en gran medida de la precisión de los instrumentos de medición. Con una variable continua hay inevitablemente un error de medida. • EJEMPLO: La estatura de una persona (1.72m, 1.719m, 1.7186m....). El tiempo que toma un atleta en recorrer 100 metros planos, ya que este tiempo puede tomar valores como 9,623 segundos; 10,456485 segundos; 12,456412 segundos; es decir, un intervalo de valores.
  • 5. FUNCION DE DISTRIBUCION ACUMULADA En la teoría de la probabilidad y en estadística, la Función de Distribución Acumulada (FDA, designada también a veces simplemente como FD) asociada a una variable aleatoria real: X (mayúscula) sujeta a cierta ley de distribución de probabilidad, es una función matemática de la variable real: x (minúscula); que describe la probabilidad de que X tenga un valor menor o igual que x . Intuitivamente, asumiendo la función f como la ley de distribución de probabilidad, la FDA sería la función con la recta real como dominio, con imagen del área hasta aquí de la función f, siendo aquí el valor x para la variable aleatoria real X. La FDA asocia a cada valor x, la probabilidad del evento: "la variable X toma valores menores o iguales a x". El concepto de FDA puede generalizarse para modelar variables aleatorias multivariantes definidas en : • A FDA de una variable aleatoria: X, uniformemente distribuida en el intervalo unitario [0, 1]. queda definida por: F(x) = 0, si x < 0; F(x) = x, si 0 ≤ x ≤ 1; F(x) = 1, si x > 1. Si X toma sólo los valores 0 y 1, con igual probabilidad (X sigue una distribución de Bernoulli con p = 1/2). Entonces su FDA viene dada por: F(x) = 0, si x < 0; F(x) = 1/2, si 0 ≤ x < 1; F(x) = 1, si x ≥ 1.
  • 6. ESPERANZA MATEMATICA En estadística la esperanza matemática (también llamada esperanza, valor esperado, media poblacional o media) de una variable aleatoria X , es el número E {X} o E{X} que formaliza la idea de valor medio de un fenómeno aleatorio. Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra (el valor de la esperanza puede ser improbable o incluso imposible). • EJEMPLO: El valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos hacer el cálculo: E (X) = 1×1/(6 )+2×1/6+3×1/6+4×1/6+5×1/6+6×1/6 =(1+2+3+4+5+6)/6=3,5 y cabe destacar que 3,5 no es un valor posible al tirar el dado. En este caso, en el que todos los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.
  • 7. • PROPIEDADES: Si X es siempre positiva, entonces siempre lo es E(X). La esperanza matemática de una constante es igual a esa misma constante, es decir, si c es una constante, entonces . E {c} = c Si X está delimitada por dos números reales, a y b, tal que: a < X < b, entonces también lo está su media: α<E(X)<b Linealidad. Si existe E(X) y se considera Y= α+bX, entonces E(Y)=E(α+bX)= α+bE(X) VALOR ESPERADO El valor que se espera obtener de un experimento estadístico se llama el valor esperado. También llamado "esperanza matemática". También lo llamamos "media" y esta es la palabra que vamos a seguir usando. Si tiramos una moneda 10 veces, esperamos que salga 5 veces "cara" y 5 veces "cruz". Esperamos obtener este valor porque la probabilidad de que salga "cara" es 0,5, y si lanzamos la moneda 10 veces, obtenemos 5. Por lo tanto, 5 es la media. Para formalizar este particular ejemplo de la media, si p es la probabilidad y n el número de eventos, la media es a = np. Esta es la forma de la media cuando se puede expresar la probabilidad por medio de la distribución binomial.
  • 8. VARIANZA Y DESVIACION ESTANDAR  Desviación Estándar: La desviación estándar (σ) mide cuánto se separan los datos. La fórmula es fácil: es la raíz cuadrada de la varianza. Así que, "¿qué es la varianza?"  Varianza: La varianza (que es el cuadrado de la desviación estándar: σ2) se define así: Es la media de las diferencias con la media elevadas al cuadrado. En otras palabras, sigue estos pasos: 1. Calcula la media (el promedio de los números) 2. Ahora, por cada número resta la media y eleva el resultado al cuadrado (la diferencia elevada al cuadrado). 3. Ahora calcula la media de esas diferencias al cuadrado. (¿Por qué al cuadrado?) • EJEMPLO: Tú y tus amigos habéis medido las alturas de nuestros perros (en milímetros) Las alturas (de los hombros) son: 600mm, 470mm, 170mm, 430mm y 300mm. Calcula la media, la varianza y la desviación estándar. Respuesta: Media = 600 + 470 + 170 + 430 + 300 = 1970 = 394 5 5 Así que la altura media es 394 mm. Vamos a dibujar esto en el gráfico: Ahora calculamos la diferencia de cada altura con la media:
  • 9. Para calcular la varianza, toma cada diferencia, elévala al cuadrado, y haz la media: Varianza: σ2 = 2062 + 762 + (-224)2 + 362 + (-94)2 = 108,520 = 21,704 5 5 Así que la varianza es 21,704. Y la desviación estándar es la raíz de la varianza, así que: Desviación estándar: σ = √21,704 = 147 y lo bueno de la desviación estándar es que es útil: ahora veremos qué alturas están a distancia menos de la desviación estándar (147mm) de la media: Así que usando la desviación estándar tenemos una manera "estándar" de saber qué es normal, o extra grande o extra pequeño. Los Rottweilers son perros grandes. Y los Dachsunds son un poco menudos... ¡pero que no se enteren. *Nota: ¿por qué al cuadrado? Elevar cada diferencia al cuadrado hace que todos los números sean positivos (para evitar que los números negativos reduzcan la varianza) Y también hacen que las diferencias grandes se destaquen. Por ejemplo 1002=10,000 es mucho más grande que 502=2,500. Pero elevarlas al cuadrado hace que la respuesta sea muy grande, así que lo deshacemos (con la raíz cuadrada) y así la desviación estándar es mucho
  • 10. FUNCION GENERADORA DE MOMENTOS En probabilidad y estadística, la función generadora de momentos o función generatriz de momentos de una variable aleatoria X es Mx(t)≔E(e^tX ),t∈R, Siempre que esta esperanza exista. La función generadora de momentos se llama así porque, si existe en un entorno de t = 0, permite generar los momentos de la distribución de probabilidad: E(X^n )=M_X^((n) ) (0)=d^(n M_X )/〖dt〗^n (0). Si la función generadora de momentos está definida en tal intervalo, entonces determina unívocamente a la distribución de probabilidad Un problema clave con las funciones generadoras de momentos es que los momentos y la propia función generadora no siempre existen, porque las integrales que los definen no son siempre convergentes. Por el contrario, la función característica siempre existe y puede usarse en su lugar. De forma general, donde X=(X1,….Xn) es un vector aleatorio n-dimensional, se usa t•X=t^T X en lugar de tX: M_x (t)≔E(e^tTX ).
  • 11. DISTRIBUCIONES DISCRETAS DE PROBABILIDAD BERNOULLI En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución dicotómica), nombrada así por el matemático suizo Jacob Bernoulli, es una distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito (ρ) y valor 0 para la probabilidad de fracaso (q=1-ρ Si X es una variable aleatoria que mide el "número de éxitos", y se realiza un único experimento con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria X se distribuye como una Bernoulli de parámetro ρ. X~Be(ρ) Su función de probabilidad viene definida por: f(x)=ρ^x (1-〖ρ)〗^(1-x) con x={0,1} BINOMIAL Esta distribución se basa en el proceso de Bernoulli. Se denominan procesos de tipo Bernoulli, a todo experimento consistente en una serie de pruebas repetidas, caracterizadas por tener resultados que se pueden clasificar en si verifican o no cierta propiedad o atributo, siendo aleatorios e independientes.
  • 12. • EJEMPLO: Sea el caso de una droga X, con una dosis mortal de 1g/100 ml para cobayos experimentales, en el 25% de los casos. Aplicando esta dosis a cien cobayos se desea saber cuánto vale la probabilidad de que mueran veinte de ellos. Primero analizaremos si este caso cumple los supuestos básicos de una distribución binomial: Los cobayos mueren (éxito) o sobreviven (fracaso). Que un cobayo muera con la dosis, no significa que lo hará el siguiente ( independencia) pues no se trata de una epidemia. La probabilidad de que mueran se mantiene constante a lo largo de la serie de pruebas (p = 0,25). Entonces, como si cumple los supuestos básicos, aplicamos la fórmula: GEOMETRICA La distribución geométrica es un modelo adecuado para aquellos procesos en los que se repiten pruebas hasta la consecución del éxito a resultado deseado y tiene interesantes aplicaciones en los muestreos realizados de esta manera. También implica la existencia de una dicotomía de posibles resultados y la independencia de las pruebas entre sí. Proceso experimental del que se puede hacer derivar Esta distribución se puede hacer derivar de un proceso experimental puro o de Bernouilli en el que tengamos las siguientes características.
  • 13. El proceso consta de un número no definido de pruebas o experimentos separados o separables. El proceso concluirá cuando se obtenga por primera vez el resultado deseado (éxito). Cada prueba puede dar dos resultados mutuamente excluyentes: A y no A La probabilidad de obtener un resultado A en cada prueba es p y la de obtener un resultado no A es q siendo (p + q = 1). BINOMIAL NEGATIVA En estadística la distribución binomial negativa es una distribución de probabilidad discreta que incluye a la distribución de Pascal. Es una ampliación de las distribuciones geométricas, utilizada en procesos en los cuales se ve necesaria la repetición de ensayos hasta conseguir un número de casos favorables (primer éxito). La distribución Binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad p de ocurrencia de éxitos en los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, es decir, sólo son posibles dos resultados ( A y no A). La variable aleatoria es el número de ensayos Bernoulli necesarios para obtener el primer éxito. Si deseamos conocer el número de estos para conseguir n éxitos, la variable aleatoria es binomial negativa.
  • 14. MULTINOMIAL Este modelo se puede ver como una generalización del Binomial en el que, en lugar de tener dos posibles resultados, tenemos r resultados posibles. Supongamos que el resultado de una determinada experiencia puede ser r valores distintos: A1, A2, ..., Ar cada uno de ellos con probabilidad p1, p2, ..., pr, respectivamente. Si repetimos la experiencia n veces en condiciones independientes, podemos preguntarnos la probabilidad de que el suceso A1 aparezca k1 veces, el suceso A2, k2 veces y así sucesivamente: Al modelo estadístico que nos da dicha probabilidad se le denomina Multinomial, y su función de densidad viene dada por:
  • 15. Como se ve, el modelo Multinomial queda definido por los parámetros (n, p1, p2, ..., pr). La fórmula anterior puede deducirse de forma análoga al caso Binomial. En realidad, si tomamos r = 2 tenemos exactamente el modelo Binomial. Se debe destacar que este modelo es un ejemplo de distribución multivariante, es decir, de distribución conjunta de varias (r) variables aleatorias. En efecto, si definimos la variable aleatoria X1 como número de veces que se produce el suceso A1 de un total de n experiencias, y así sucesivamente, tenemos un conjunto de r variables aleatorias discretas cuya función de densidad conjunta (valorada a la vez) viene definida por la anterior fórmula. Nótese que si consideramos cada una de estas variables Xi (i = 1, 2, ..., r) por separado, su distribución es la Binomial de parámetros n y pi. POISSON Se denominan procesos de tipo Poisson, a todo experimento consistente en una serie de pruebas repetidas dentro de un continuo, caracterizadas por tener resultados que se pueden clasificar en si verifican o no, cierta propiedad o atributo, siendo aleatorios e independientes del lugar que ocurren dentro del continuo.
  • 16. Para identificar un proceso Poisson en una serie de pruebas repetidas, se deben verificar tres condiciones: • Sucesos puntuales: Los sucesos ocurren dentro de un continuo (espacio o tiempo) y ocupan una parte infinitesimal del mismo. Es decir, en el espacio un suceso es puntual y en el tiempo es instantáneo. En términos prácticos, los sucesos no ocupan una parte apreciable del continuo. • Sucesos independientes: La ocurrencia de un suceso en un lugar del continuo no condiciona la ocurrencia del anterior (o del siguiente) en otra parte del mismo. • Probabilidad constante: La probabilidad de ocurrencia de un suceso en un lugar del continuo es la misma en todo punto del mismo.
  • 17. • EJEMPLO: Supongamos que estamos investigando la seguridad de una peligrosa intelección de calles, los registros policíacos indican una media de 5 accidentes mensuales en esta intersección. El departamento de seguridad vial desea que calculemos la probabilidad de que en cualquier mes ocurran exactamente 3 accidentes. Analizando el problema, esta situación se ajusta a un proceso de Poisson, hay una secuencia de llegada (por más que exista un choque múltiple, siempre hay uno que choca primero). Tenemos la siguiente información: l = 5 accidentes por mes x = 3 accidentes por mes Aplicando la fórmula de la probabilidad de Poisson: En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Suponga que se tiene una población de N elementos de los cuales, d pertenecen a la categoría Ay N- d a la B. La distribución hipergeométrica mide la probabilidad de obtener x ( ) elementos de la categoría A en una muestra sin reemplazo de n elementos de la población original.
  • 18. HIPERGEOMETRICA Hasta ahora hemos analizado distribuciones que modelizaban situaciones en las que se realizaban pruebas que entrañaban una dicotomía (proceso de Bernouilli) de manera que en cada experiencia la probabilidad de obtener cada uno de los dos posibles resultados se mantenía constante. Si el proceso consistía en una serie de extracciones o selecciones ello implicaba la reposición de cada extracción o selección, o bien la consideración de una población muy grande. Sin embargo si la población es pequeña y las extracciones no se remplazan las probabilidades no se mantendrán constantes. En ese caso las distribuciones anteriores no nos servirán para la modelizar la situación. La distribución hipergeométrica viene a cubrir esta necesidad de modelizar procesos de Bernouilli con probabilidades no constantes (sin reemplazamiento). La distribución hipergeométrica es especialmente útil en todos aquellos casos en los que se extraigan muestras o se realizan experiencias repetidas sin devolución del elemento extraído o sin retornar a la situación experimental inicial. Las probabilidades de obtener un resultado A y de obtener un resultado no A varían en las sucesivas pruebas, dependiendo de los resultados anteriores. (Derivación de la distribución) Si estas circunstancias a le autorizamos de forma que la variable aleatoria X sea el número de resultados A obtenidos en n pruebas la distribución de X será una Hipergeométrica de parámetros N,n,p .
  • 19. POISSON COMO APROXIMACION A LA BINOMIAL E HIPERGEOMETRICA En este caso se determinarán probabilidades de experimentos Binomiales, pero que dadas sus características, es posible aproximarlas con la distribución de Poisson, estas características son, n ¥® ( n es muy grande) y p®0 (p es muy pequeña), por lo que: La expresión anterior solo se cumple cuando n ®¥ y p®0, solo en este caso, si esto no se cumple, la aproximación no se puede llevar a efecto, por lo que la fórmula a utilizar en este caso sería:
  • 20. Donde: l =m= np = número esperado de éxitos = tasa promedio de éxitos n = número de repeticiones del experimento p = probabilidad de éxito = p(éxito) Una regla general aceptable es emplear esta aproximación si n³20 y p£0.05: sí n³100, la aproximación es generalmente excelente siempre y cuando np£10. Ejemplos: 1. Se sabe que el 5% de los libros encuadernados en cierto taller tienen encuadernaciones defectuosas. Determine la probabilidad de que 2 de 100 libros encuadernados en ese taller, tengan encuadernaciones defectuosas, usando, a) la fórmula de la distribución Binomial, b) la aproximación de Poisson a la distribución Binomial. Solución: a) n = 100 p = 0.05 = p(encuadernación defectuosa) = p(éxito) q = 0.95 = p(encuadernación no defectuosa) = p(fracaso) x = variable que nos define el número de encuadernaciones defectuosas en la muestra = = 0, 1, 2, 3,....,100 encuadernaciones defectuosas b)n = 100 encuadernaciones p = 0.05 l = np = (100)(0.05)= 5 x = variable que nos define el número de encuadernaciones defectuosas en la muestra = = 0, 1, 2, 3,....,100 encuadernaciones defectuosas
  • 21. Distribuciones continuas de Probabilidades UNIFORME La distribución o modelo uniforme puede considerarse como proveniente de un proceso de extracción aleatoria. El planteamiento radica en el hecho de que la probabilidad se distribuye uniformemente a lo largo de un intervalo. Así: dada una variable aleatoria continua, x, definida en el intervalo [a,b] de la recta real, diremos que x tiene una distribución uniforme en el intervalo [a,b] cuando su función de densidad para sea: para x Î [a,b]. Su representación grafica es:
  • 22. De manera que la distribución será: EXPONENCIAL A pesar de la sencillez analítica de sus funciones de definición, la distribución exponencial tiene una gran utilidad práctica ya que podemos considerarla como un modelo adecuado para la distribución de probabilidad del tiempo de espera entre dos hechos que sigan un proceso de Poisson. De hecho, la distribución exponencial puede derivarse de un proceso experimental de Poisson con las mismas características que las que enunciábamos al estudiar la distribución de Poisson, pero tomando como variable aleatoria, en este caso, el tiempo que tarda en producirse un hecho Obviamente, entonces, la variable aleatoria será continua. Por otro lado, existe una relación entre el parámetro a de la distribución exponencial, que más tarde aparecerá, y el parámetro de intensidad del proceso l, esta relación es a = l Al ser un modelo adecuado para estas situaciones tiene una gran utilidad en los siguientes casos:
  • 23. Distribución del tiempo de espera entre sucesos de un proceso de Poisson ·Distribución del tiempo que transcurre hasta que se produce un fallo, si se cumple la condición que la probabilidad de producirse un fallo en un instante no depende del tiempo transcurrido. Aplicaciones en fiabilidad y teoría de la supervivencia. GAMMA Este modelo es una generalización del modelo Exponencial ya que, en ocasiones, se utiliza para modelar variables que describen el tiempo hasta que se produce p veces un determinado suceso. Su función de densidad es de la forma:
  • 24. Como vemos, este modelo depende de dos parámetros positivos: α y p. La función Γ(p) es la denominada función Gamma de Euler que representa la siguiente integral: Q ue verifica Γ(p + 1) = pΓ(p), con lo que, si p es un número entero positivo, Γ(p + 1) = p! El siguiente programa permite visualizar la forma de la función de densidad de este modelo (para simplificar, se ha restringido al caso en que p es un número entero). BETA Utilice la distribución beta para variables aleatorias entre 0 y 1. La distribución beta suele utilizarse para modelar la distribución de estadísticos de orden (por ejemplo, el estadístico de orden késimo de una muestra de variables n uniformes (0, 1) tiene una distribución beta (k, n + 1 – k)) y para modelar eventos que se definen por valos mínimos y máximos. La escala de la distribución beta suele modificarse para modelar el tiempo hasta la culminación de una tarea. La distribución beta también se usa en estadísticas bayesianas, por ejemplo, como la distribución de valores previos de una
  • 25. La distribución beta es una distribución continua definida por dos parámetros de forma. La distribución puede adoptar diferentes formas dependiendo de los valores de los dos parámetros. WEIBULL En teoría de la probabilidad y estadística, la distribución de Weibull es una distribución de probabilidad continua. Recibe su nombre de Waloddi Weibull, que la describió detalladamente en 1951, aunque fue descubierta inicialmente por Fréchet (1927) y aplicada por primera vez por Rosin y Rammler (1933) para describir la distribución de los tamaños de determinadas partículas. Se trata de un modelo continúo asociado a variables del tipo tiempo de vida, tiempo hasta que un mecanismo falla, etc. La función de densidad de este modelo viene dada por:
  • 26. Que, como vemos, depende de dos parámetros: α > 0 y β > 0, donde α es un parámetro de escala y β es un parámetro de forma (lo que proporciona una gran flexibilidad a este modelo). La función de distribución se obtiene por la integración de la función de densidad y vale: NORMAL ESTANDARIZADA La distribución normal estándar, o tipificada o reducida, es aquella que tiene por media el valor cero, μ = 0, y por desviación típica la unidad, σ =1. Su función de densidad es:
  • 27. Su gráfica es: NORMAL COMO APROXIMACION A LA BINOMIAL En este caso se estarán calculando probabilidades de experimentos Binomiales de una forma muy aproximada con la distribución Normal, esto puede llevarse a cabo si n¥® y p = p(éxito) no es muy cercana a 0 y 1, o cuando n es pequeño y p tiene un valor muy cercano a ½ ; esto es,
  • 28. Donde: x = variable de tipo discreto; solo toma valores enteros m = np = media de la distribución Binomial s = = desviación estándar de la distribución Binomial Cuando ocurren las condiciones anteriores, la gráfica de la distribución Binomial, es muy parecida a la distribución Normal, por lo que es adecuado calcular probabilidades con la Normal en lugar de con la Binomial y de una forma más rápida. En resumen, se utiliza la aproximación Normal para evaluar probabilidades Binomiales siempre que p no esté cercano a 0 o 1. La aproximación es excelente cuando n es grande y bastante buena para valores pequeños de n si p está razonablemente cercana a ½. Una posible guía para determinar cuando puede utilizarse la aproximación Normal es tener en cuenta el cálculo de np y nq. Sí ambos, np y nq son mayores o iguales a 5, la aproximación será buena. Antes de empezar a resolver problemas con la aproximación Normal, es bueno aclarar que se están evaluando probabilidades asociadas a una variable discreta x, con una distribución que evalúa variables de tipo continuo como es la Normal, Por lo que z sufre un pequeño cambio como se muestra a continuación
  • 29. Porqué vamos a sumar o a restar ½ a x? Este es un factor de corrección debido a que se está evaluando una variable discreta con una distribución continua, por lo que hay que delimitar claramente desde que punto se va a evaluar la variable, dicho de otra forma, en que límite de la barra (inferior o superior) nos debemos posicionar para determinar la probabilidad requerida, cada barra de probabilidad a evaluar tiene como base la unidad, ese es el porqué del ± ½.