SlideShare una empresa de Scribd logo
© Kirill Eremenko
Data Science Training
Idea de la Regresión Logística
© Kirill Eremenko
Data Science Training
Regresión Logística
y = b0 + b1*x1 + … + bn*xn
Regresión Lineal:
y = b0 + b1*x
- Simple:
- Múltiple:
© Kirill Eremenko
Data Science Training
Regresión Logística
Sabemos que:
Lo nuevo es:
Sueldo ($)
Experiencia
y = b0 + b1*x
??
?
Acción (S/N)
Edad
0
1 -
© Kirill Eremenko
Data Science Training
Regresión Logística
Acción (S/N)
Edad
0
1 -
© Kirill Eremenko
Data Science Training
Regresión Logística
1 -
Acción (S/N)
Edad
0
© Kirill Eremenko
Data Science Training
Regresión Logística
1 -
Action (Y/N)
Age
0
© Kirill Eremenko
Data Science Training
Regresión Logística
y = b0 + b1*x
1 + e-y
1
p =
ln ( ) = b0 + b1*x
1 – p
p
Función Sigmoide
© Kirill Eremenko
Data Science Training
Regresión Logística
¿¿¿Qué ha
pasado???
© Kirill Eremenko
Data Science Training
ln ( ) = b0 + b1*x
1 – p
p
Regresión Logística
y (Actual DV)
X
p̂ (Probability)
p_hat
© Kirill Eremenko
Data Science Training
Regresión Logística
X
p̂ (Probability)
20 30 40 50
p̂ =0.7%
p̂ =23%
p̂ =85%
p̂ =99.4%
p_hat
© Kirill Eremenko
Data Science Training
Regresión Logística
X
p̂ (Probability)
y (Actual VD)
ŷ (Predicción VD)
0.5
ŷ = 0 ŷ = 0
ŷ = 1 ŷ = 1
1
Fin.
© Kirill Eremenko
Data Science Training
ln ( ) = b0 + b1*x
1 – p
p
Regresión Logística
ln ( ) = b0 + b1*x1 + b2*x2 + … + bn*xn
1 – p
p
© Kirill Eremenko
Data Science Training
Coeficientes de la Regresión Logística
Qué cosas puedes y cuales no puedes hacer:
1. PUEDES interpretar los signos de los coeficientes: ‘+’ contribuye, ‘-’
rechaza
2. NO PUEDES interpretar las magnitudes de los coeficientes para
cuantificar asociaciones entre las VD y la VIs directamente
3. PUEDES comparar las magnitudes de los coeficientes para contrastar el
nivel de contribución por-unidad de las diferentes VIs a la VD
4. PUEDES usar el estadístico Z para contrastar el nivel de contribución de
las diferentes VIs a la VD. Como el estadístico Z está estandarizado, no
hay que preocuparse del cambio de escala, pero es más difícil de
interpretar.
© SuperDataScience
Machine Learning A-Z
Idea de K-NN
© SuperDataScience
Machine Learning A-Z
¿Qué son los K-NN?
Antes de K-NN
Categoría 1
Categoría 2
x1
X2
© SuperDataScience
Machine Learning A-Z
¿Qué son los K-NN?
Nuevo dato
Antes de K-NN
Categoría 1
Categoría 2
x1
X2
© SuperDataScience
Machine Learning A-Z
¿Qué son los K-NN?
Después de K-NN
Nuevo dato asignado
a Categoría 1
K-NN
Categoría 1
Categoría 2
x1
x2
Nuevo dato
Antes de K-NN
Categoría 1
Categoría 2
x1
X2
© SuperDataScience
Machine Learning A-Z
¿Cómo lo hace?
PASO 1: Elegir el número K de vecinos
PASO 2: Tomar los K vecinos más cercanos del nuevo dato, según la distancia Euclídea
PASO 3: Entre esos K vecinos, contar el número de puntos que pertenecen a cada categoría
PASO 4: Asignar el nuevo dato a la categoría con más vecinos en ella
Nuestro modelo está listo
© SuperDataScience
Machine Learning A-Z
Algoritmo de los K-NN
PASO 1: Elegir el número K de vecinos: K = 5
Nuevo dato
Categoría 1
Categoría 2
x1
x2
© SuperDataScience
Machine Learning A-Z
Distancia Euclidiana
x
y
P1(x1,y1)
P2(x2,y2)
x2
x1
y2
y1
Distancia Euclidiana entre P1 y P2
© SuperDataScience
Machine Learning A-Z
Algoritmo de los K-NN
PASO 2: Tomar los K = 5 vecinos más cercanos del nuevo dato,
según la distancia Euclidiana
Nuevo dato
Categoría 1
Categoría 2
x1
x2
© SuperDataScience
Machine Learning A-Z
Algoritmo de los K-NN
PASO 2: Tomar los K = 5 vecinos más cercanos del nuevo dato,
según la distancia Euclidiana
Nuevo dato
Categoría 1
Categoría 2
x1
x2
© SuperDataScience
Machine Learning A-Z
Algoritmo de los K-NN
PASO 3: De entre esos K vecinos, contar el número de puntos de cada categoría
Nuevo dato
Categoría 1
Categoría 2
x1
x2
Categoría 1: 3 vecinos
Categoría 2: 2 vecinos
© SuperDataScience
Machine Learning A-Z
Algoritmo de los K-NN
PASO 4: Asignar el nuevo dato a la categoría con más vecinos
Nuevo dato
Categoría 1
Categoría 2
x1
x2
Categoría 1: 3 vecinos
Categoría 2: 2 vecinos
© SuperDataScience
Machine Learning A-Z
Algoritmo de los K-NN
PASO 4: Asignar el nuevo dato a la categoría con más vecinos
Nuevo dato
Categoría 1
Categoría 2
x1
x2
Categoría 1: 3 vecinos
Categoría 2: 2 vecinos
© SuperDataScience
Machine Learning A-Z
Algoritmo de los K-NN
PASO 4: Asignar el nuevo dato a la categoría con más vecinos
Nuevo dato
Categoría 1
Categoría 2
Nuestro modelo está listo x1
x2
Categoría 1: 3 vecinos
Categoría 2: 2 vecinos
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
m1 m1 m1 m1 m1 m1 m1 m1 m1 m1 m1 m1 m1
m2 m2 m2 m2 m2 m2 m2 m2 m2 m2
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
¿Cuál es la probabilidad?
m2
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
¿Cuál es la probabilidad?
m2
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
𝑃(𝐴 𝐵) =
𝑃(𝐵 𝐴) ∗ 𝑃(𝐴)
𝑃(𝐵)
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
Máquina 1: 30 herramientas / hora
Máquina 2: 20 herramientas / hora
De todas las herramientas producidas:
Podemos VER que el 1% son defectuosas
De todas las herramientas defectuosas:
Podemos VER que el 50% son producidas por la Máquina 1
y el otro 50% fueron producidas por la Máquina 2
Pregunta:
¿Cuál es la probabilidad que una herramienta
producida por la máquina 2 sea defectuosa?
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
Máquina 1: 30 herramientas / hora
Máquina 2: 20 herramientas / hora
De todas las herramientas producidas:
Podemos VER que el 1% son defectuosas
De todas las herramientas defectuosas:
Podemos VER que el 50% son producidas M1
y el otro 50% fueron producidas por la M2
Pregunta:
¿Cuál es la probabilidad que una herramienta
producida por la máquina 2 sea defectuosa?
-> P(Mach1) = 30/50 = 0.6
-> P(Mach1 | Defect) = 50%
-> P(Mach2) = 20/50 = 0.4
-> P(Mach2 | Defect) = 50%
-> P(Defect | Mach2) = ?
-> P(Defect) = 1%
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
-> P(Mach1) = 30/50 = 0.6
-> P(Defect) = 1%
-> P(Mach1 | Defect) = 50%
-> P(Defect | Mach2) = ?
-> P(Mach2) = 20/50 = 0.4
-> P(Mach2 | Defect) = 50%
Máquina 1: 30 herramientas / hora
Máquina 2: 20 herramientas / hora
De todas las herramientas producidas:
Podemos VER que el 1% son defectuosas
De todas las herramientas defectuosas:
Podemos VER que el 50% son producidas M1
y el otro 50% fueron producidas por la M2
Pregunta:
¿Cuál es la probabilidad que una herramienta
producida por la máquina 2 sea defectuosa?
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
Máquina 1: 30 herramientas / hora
Máquina 2: 20 herramientas / hora
De todas las herramientas producidas:
Podemos VER que el 1% son defectuosas
De todas las herramientas defectuosas:
Podemos VER que el 50% son producidas M1
y el otro 50% fueron producidas por la M2
Pregunta:
¿Cuál es la probabilidad que una herramienta
producida por la máquina 2 sea defectuosa?
-> P(Defect) = 1%
-> P(Defect | Mach2) = ?
-> P(Mach2) = 20/50 = 0.4
-> P(Mach2 | Defect) = 50%
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
Máquina 1: 30 herramientas / hora
Máquina 2: 20 herramientas / hora -> P(Defect) = 1%
-> P(Defect | Mach2) = ?
-> P(Mach2) = 20/50 = 0.4
-> P(Mach2 | Defect) = 50%
P(Defect | Mach2) =
P(Mach2 | Defect) P(Defect)
*
P(Mach2)
De todas las herramientas producidas:
Podemos VER que el 1% son defectuosas
De todas las herramientas defectuosas:
Podemos VER que el 50% son producidas M1
y el otro 50% fueron producidas por la M2
Pregunta:
¿Cuál es la probabilidad que una herramienta
producida por la máquina 2 sea defectuosa?
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
Máquina 1: 30 herramientas / hora
Máquina 2: 20 herramientas / hora -> P(Defect) = 1%
-> P(Defect | Mach2) = ?
-> P(Mach2) = 20/50 = 0.4
-> P(Mach2 | Defect) = 50%
P(Defect | Mach2) =
0.5 0.01
*
0.4
De todas las herramientas producidas:
Podemos VER que el 1% son defectuosas
De todas las herramientas defectuosas:
Podemos VER que el 50% son producidas M1
y el otro 50% fueron producidas por la M2
Pregunta:
¿Cuál es la probabilidad que una herramienta
producida por la máquina 2 sea defectuosa?
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
Máquina 1: 30 herramientas / hora
Máquina 2: 20 herramientas / hora -> P(Defect) = 1%
-> P(Defect | Mach2) = ?
-> P(Mach2) = 20/50 = 0.4
-> P(Mach2 | Defect) = 50%
P(Defect | Mach2) =
0.5 0.01
*
0.4
= 0.0125 =1.25%
De todas las herramientas producidas:
Podemos VER que el 1% son defectuosas
De todas las herramientas defectuosas:
Podemos VER que el 50% son producidas M1
y el otro 50% fueron producidas por la M2
Pregunta:
¿Cuál es la probabilidad que una herramienta
producida por la máquina 2 sea defectuosa?
© SuperDataScience
Machine Learning A-Z
¡Es intuitivo!
P(Defect | Mach2) = =1.25%
P(Mach2 | Defect) * P(Defect)
P(Mach2)
Veamos un ejemplo
• 1000 herramientas
• 400 fabricadas por la Máquina 2
• 1% tienen un defecto = 10
• de ellas, el 50% proceden de la Máquina 2 = 5
• % de herramientas defectuosas producidas por la Máquina 2 = 5/400 = 1.25%
© SuperDataScience
Machine Learning A-Z
¡Es intuitivo!
Pregunta obvia
Si las herramientas venían etiquetadas, ¿por qué
no podíamos simplemente contar el número de
llaves inglesas defectuosas que venían de la
Máquina 2 y dividir por el número total de
herramientas fabricadas por dicha máquina?
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
Ejercicio rápido
P(Defect | Mach1) = ?
© SuperDataScience
Machine Learning A-Z
Teorema de Bayes
-> P(Mach1) = 30/50 = 0.6
-> P(Mach1 | Defect) = 50%
-> P(Mach2) = 20/50 = 0.4
-> P(Mach2 | Defect) = 50%
-> P(Defect) = 1%
Máquina 1: 30 herramientas / hora
Máquina 2: 20 herramientas / hora
De todas las herramientas producidas:
Podemos VER que el 1% son defectuosas
De todas las herramientas defectuosas:
Podemos VER que el 50% son producidas M1
y el otro 50% fueron producidas por la M2
© SuperDataScience
Machine Learning A-Z
Idea del Clasificador con
Naïve Bayes
© SuperDataScience
Machine Learning A-Z
© SuperDataScience
Machine Learning A-Z
Naïve Bayes
𝑃(𝐴 𝐵) =
𝑃(𝐵 𝐴) ∗ 𝑃(𝐴)
𝑃(𝐵)
© SuperDataScience
Machine Learning A-Z
X1
X2
Naïve Bayes
Edad
Sueldo
Categoría 1
Categoría 2
Camina
Conduce
© SuperDataScience
Machine Learning A-Z
Naïve Bayes
Sueldo
Nuevo Dato
Camina
Conduce
Edad
© SuperDataScience
Machine Learning A-Z
Naïve Bayes
Plan de Ataque
© SuperDataScience
Machine Learning A-Z
Naïve Bayes
𝑃(𝐴 𝐵) =
𝑃(𝐵 𝐴) ∗ 𝑃(𝐴)
𝑃(𝐵)
© SuperDataScience
Machine Learning A-Z
Paso 1
Probabilidad a Posteriori
Probabilidad
Condicionada
Probabilidad a
Priori
Probabilidad Marginal
𝑃(𝑊alks 𝑋) =
𝑃(𝑋 𝑊𝑎𝑙𝑘𝑠) ∗ 𝑃(𝑊𝑎𝑙𝑘𝑠)
𝑃(𝑋)
#1
#2
#3
#4
© SuperDataScience
Machine Learning A-Z
Paso 2
Probabilidad a Posteriori
Probabilidad
Condicionada
Probabilidad a
Priori
Probabilidad Marginal
𝑃(𝐷𝑟𝑖𝑣𝑒𝑠 𝑋) =
𝑃(𝑋 𝐷𝑟𝑖𝑣𝑒𝑠) ∗ 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠)
𝑃(𝑋)
#1
#2
#3
#4
© SuperDataScience
Machine Learning A-Z
Paso 3
𝑃(𝑊𝑎𝑙𝑘𝑠 𝑋) 𝑣 . 𝑠 . 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠 𝑋)
© SuperDataScience
Machine Learning A-Z
Naïve Bayes
¿Listo?
© SuperDataScience
Machine Learning A-Z
Naïve Bayes: Paso 1
Sueldo
Camina
Conduce
Edad
© SuperDataScience
Machine Learning A-Z
Naïve Bayes: Paso 1
#1. P(Camina)
𝑃(𝑊𝑎𝑙𝑘𝑠) =
𝑁𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑊𝑎𝑙𝑘𝑒𝑟𝑠
𝑇𝑜𝑡𝑎𝑙 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑡𝑖𝑜𝑛𝑠
𝑃(𝑊𝑎𝑙𝑘𝑠) =
10
30
Sueldo
Camina
Conduce
Edad
© SuperDataScience
Machine Learning A-Z
Naïve Bayes: Paso 1
Probabilidad a Posteriori
Probabilidad
Condicionada
Probabilidad a
Priori
Probabilidad Marginal
𝑃(𝑊𝑎𝑙𝑘𝑠 𝑋) =
𝑃(𝑋 𝑊𝑎𝑙𝑘𝑠) ∗ 𝑃(𝑊𝑎𝑙𝑘𝑠)
𝑃(𝑋)
#1
#2
#3
#4
© SuperDataScience
Machine Learning A-Z
Naïve Bayes: Paso 1
#2. P(X)
𝑃(𝑋) =
𝑁𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑆𝑖𝑚𝑖𝑙𝑎𝑟 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑡𝑖𝑜𝑛𝑠
𝑇𝑜𝑡𝑎𝑙 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑡𝑖𝑜𝑛𝑠
𝑃(𝑋) =
4
30
Sueldo
Camina
Conduce
Edad
© SuperDataScience
Machine Learning A-Z
Naïve Bayes: Paso 1
Probabilidad a Posteriori
Probabilidad
Condicionada
Probabilidad a
Priori
Probabilidad Marginal
𝑃(𝑊𝑎𝑙𝑘𝑠 𝑋) =
𝑃(𝑋 𝑊𝑎𝑙𝑘𝑠) ∗ 𝑃(𝑊𝑎𝑙𝑘𝑠)
𝑃(𝑋)
#1
#2
#3
#4
© SuperDataScience
Machine Learning A-Z
Naïve Bayes: Paso 1
#3. P(X|Camina)
𝑃(𝑋|𝑊𝑎𝑙𝑘𝑠) =
𝑁𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑆𝑖𝑚𝑖𝑙𝑎𝑟
𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑡𝑖𝑜𝑛𝑠
𝐴𝑚𝑜𝑛𝑔 𝑡h𝑜𝑠𝑒 𝑤h𝑜 𝑊𝑎𝑙𝑘
𝑇𝑜𝑡𝑎𝑙 𝑛𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑊𝑎𝑙𝑘𝑒𝑟𝑠
𝑃(𝑋|𝑊𝑎𝑙𝑘𝑠) =
3
10
Sueldo
Camina
Conduce
Edad
© SuperDataScience
Machine Learning A-Z
Naïve Bayes: Paso 1
Probabilidad a Posteriori
Probabilidad
Condicionada
Probabilidad a
Priori
Probabilidad Marginal
𝑃(𝑊𝑎𝑙𝑘𝑠 𝑋) =
𝑃(𝑋 𝑊𝑎𝑙𝑘𝑠) ∗ 𝑃(𝑊𝑎𝑙𝑘𝑠)
𝑃(𝑋)
#1
#2
#3
#4
© SuperDataScience
Machine Learning A-Z
Naïve Bayes: Paso 1
Probabilidad a Posteriori
Probabilidad
Condicionada
Probabilidad a
Priori
Probabilidad Marginal
#1
#2
#3
#4
𝑃(𝑊𝑎𝑙𝑘𝑠 𝑋) =
3
10
∗
10
30
4
30
= 0.75
© SuperDataScience
Machine Learning A-Z
Naïve Bayes
Paso 1 – Listo.
© SuperDataScience
Machine Learning A-Z
Paso 2
Probabilidad a Posteriori
Probabilidad
Condicionada
Probabilidad a
Priori
Probabilidad Marginal
𝑃(𝐷𝑟𝑖𝑣𝑒𝑠 𝑋) =
𝑃(𝑋 𝐷𝑟𝑖𝑣𝑒𝑠) ∗ 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠)
𝑃(𝑋)
#1
#2
#3
#4
© SuperDataScience
Machine Learning A-Z
Naïve Bayes: Paso 2
Probabilidad a Posteriori
Probabilidad
Condicionada
Probabilidad a
Priori
Probabilidad Marginal
#1
#2
#3
#4
𝑃(𝐷𝑟𝑖𝑣𝑒𝑠 𝑋) =
1
20
∗
20
30
4
30
= 0.25
© SuperDataScience
Machine Learning A-Z
Naïve Bayes
Paso 2 – Listo.
© SuperDataScience
Machine Learning A-Z
Paso 3
𝑃(𝑊𝑎𝑙𝑘𝑠 𝑋) 𝑣 . 𝑠 . 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠 𝑋)
© SuperDataScience
Machine Learning A-Z
Paso 3
0 . 75 𝑣 . 𝑠 . 0.25
© SuperDataScience
Machine Learning A-Z
Paso 3
0 . 75 > 0 . 25
© SuperDataScience
Machine Learning A-Z
Paso 3
𝑃(𝑊alks 𝑋) > 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠 𝑋)
© SuperDataScience
Machine Learning A-Z
Naïve Bayes
Sueldo
Nuevo Dato
Camina
Conduce
Edad
© SuperDataScience
Machine Learning A-Z
Naïve Bayes
Sueldo
Nuevo Dato
Camina
Conduce
Edad

Más contenido relacionado

PPTX
macchine learning presentacion del BayesTheorem.pptx
PDF
Total probability and bayes theorem in decision theory
PDF
Aprendizaje de Maquina y Aplicaciones
PDF
Algoritmos para aplicar data mining
PDF
TestingAR Meetup VIII - Luis Argerich - Una Breve Introducción a Machine Lear...
PPT
Redes Bayesianas
PDF
Clasificadores Bayesianos: De datos a Conceptos
PPT
Sistemas basados en casos
macchine learning presentacion del BayesTheorem.pptx
Total probability and bayes theorem in decision theory
Aprendizaje de Maquina y Aplicaciones
Algoritmos para aplicar data mining
TestingAR Meetup VIII - Luis Argerich - Una Breve Introducción a Machine Lear...
Redes Bayesianas
Clasificadores Bayesianos: De datos a Conceptos
Sistemas basados en casos

Similar a Clase 4 - algoritmos de clasificacipón - data mining (20)

PDF
Estadística bayesiana, inteligencia artificial y las cadenas de Márkov
PPT
Redes Bayesianas Post
PDF
Red bayesiana pfc
PDF
Red Bayesiana
PDF
Red Bayesiana PFM
PDF
Métodos Predictivos: Aplicación a la Detección de Fraudes en Tarjetas De Crédito
PDF
Introducción a temas de Machine Learning
PPTX
TEOREMA DE BAYES.pptx
PDF
Maquina restringida de boltzmann
PDF
Clase redes neuronales 3
ODP
Aprendizajebayesiano
PDF
slides-espanol-curso-introduccion-machine-learning-por-mindsdb_8c5ff985-0581-...
PPTX
Introducción a Machine Learning
PDF
Inteligencia Artificial Redes bayesianas
PDF
Redes bayesianas
PPTX
Clasificacion mediante Redes Neuronales.pptx
PDF
Datamining y Machine Learning para Ciencias Biológicas
PPTX
P_Sem06_Ses12_El marco teorico de Teorema de Bayes.pptx
PDF
Estadística bayesiana, inteligencia artificial y las cadenas de Márkov
Redes Bayesianas Post
Red bayesiana pfc
Red Bayesiana
Red Bayesiana PFM
Métodos Predictivos: Aplicación a la Detección de Fraudes en Tarjetas De Crédito
Introducción a temas de Machine Learning
TEOREMA DE BAYES.pptx
Maquina restringida de boltzmann
Clase redes neuronales 3
Aprendizajebayesiano
slides-espanol-curso-introduccion-machine-learning-por-mindsdb_8c5ff985-0581-...
Introducción a Machine Learning
Inteligencia Artificial Redes bayesianas
Redes bayesianas
Clasificacion mediante Redes Neuronales.pptx
Datamining y Machine Learning para Ciencias Biológicas
P_Sem06_Ses12_El marco teorico de Teorema de Bayes.pptx
Publicidad

Más de Fabio Pinto Oviedo (6)

PPTX
CLASE I - Business Intelligence (Fundamentos)
PPTX
Clase 2 - Proceso de Business Intelligence
PPTX
Sistema de ecuaciones lineales de 2 x 2
PPTX
Sistema de ecuaciones lineales dos
PPTX
Ecuaciones lineales
PPTX
Repaso productos notables y factorizacion
CLASE I - Business Intelligence (Fundamentos)
Clase 2 - Proceso de Business Intelligence
Sistema de ecuaciones lineales de 2 x 2
Sistema de ecuaciones lineales dos
Ecuaciones lineales
Repaso productos notables y factorizacion
Publicidad

Último (20)

PDF
Contextualización del Sena, etapa induccion
PPT
Administración Financiera diapositivas.ppt
PDF
Informe investigacion de accidente en al
PPTX
ECONOMIA PLURAL para el entendimiento empresarial
PDF
Rendicion publica de cuentas inicial 2025 de la procuraduria
PPTX
ASERTIVIDAD EN EL TRABAJO PARA EL MANEJO DE RRHH
PPTX
FORMATO DE PRESENTACION EMPRESARIAL.pptx
PDF
CV Carlos Lira Zalaquett_Agosto 2025 - Asesor Técnico Empresarial / Facilitador
PPTX
Elementos del Entorno-Elementos del Entorno
PDF
MODELO INNOVACION EN NEGOCIOS , METODOLOGIA APLICADA.pdf
PPTX
AUDITORÍA INTERNA OPERACIONAL - Riesgos.
PDF
Estrategias de orientación en facturación electrónica para grandes contribuye...
PPT
Teoria General de Sistemas empresariales
PPTX
CREACION DE MARCA EMPRESAS CONTEXTO EMPRESARIAL
PDF
Copia de PRESENTACION POST-BUROCRACIA_20250727_111400_0000.pdf
PPTX
1748538606_68389hhhhhhhhhhh4ee56ae5.pptx
PPT
RELACION DE MARKETING CON EL CLIENTE DE EXPE
PDF
MODELO DE INNOVACION VERNE,HERRAMIENTAS Y METODO.pdf
PPTX
ADMINISTRACION ESTRATEGICA planeación y estrategia
PDF
DESARROLLO E IMPACTO DE LA INNOVACION.pdf
Contextualización del Sena, etapa induccion
Administración Financiera diapositivas.ppt
Informe investigacion de accidente en al
ECONOMIA PLURAL para el entendimiento empresarial
Rendicion publica de cuentas inicial 2025 de la procuraduria
ASERTIVIDAD EN EL TRABAJO PARA EL MANEJO DE RRHH
FORMATO DE PRESENTACION EMPRESARIAL.pptx
CV Carlos Lira Zalaquett_Agosto 2025 - Asesor Técnico Empresarial / Facilitador
Elementos del Entorno-Elementos del Entorno
MODELO INNOVACION EN NEGOCIOS , METODOLOGIA APLICADA.pdf
AUDITORÍA INTERNA OPERACIONAL - Riesgos.
Estrategias de orientación en facturación electrónica para grandes contribuye...
Teoria General de Sistemas empresariales
CREACION DE MARCA EMPRESAS CONTEXTO EMPRESARIAL
Copia de PRESENTACION POST-BUROCRACIA_20250727_111400_0000.pdf
1748538606_68389hhhhhhhhhhh4ee56ae5.pptx
RELACION DE MARKETING CON EL CLIENTE DE EXPE
MODELO DE INNOVACION VERNE,HERRAMIENTAS Y METODO.pdf
ADMINISTRACION ESTRATEGICA planeación y estrategia
DESARROLLO E IMPACTO DE LA INNOVACION.pdf

Clase 4 - algoritmos de clasificacipón - data mining

  • 1. © Kirill Eremenko Data Science Training Idea de la Regresión Logística
  • 2. © Kirill Eremenko Data Science Training Regresión Logística y = b0 + b1*x1 + … + bn*xn Regresión Lineal: y = b0 + b1*x - Simple: - Múltiple:
  • 3. © Kirill Eremenko Data Science Training Regresión Logística Sabemos que: Lo nuevo es: Sueldo ($) Experiencia y = b0 + b1*x ?? ? Acción (S/N) Edad 0 1 -
  • 4. © Kirill Eremenko Data Science Training Regresión Logística Acción (S/N) Edad 0 1 -
  • 5. © Kirill Eremenko Data Science Training Regresión Logística 1 - Acción (S/N) Edad 0
  • 6. © Kirill Eremenko Data Science Training Regresión Logística 1 - Action (Y/N) Age 0
  • 7. © Kirill Eremenko Data Science Training Regresión Logística y = b0 + b1*x 1 + e-y 1 p = ln ( ) = b0 + b1*x 1 – p p Función Sigmoide
  • 8. © Kirill Eremenko Data Science Training Regresión Logística ¿¿¿Qué ha pasado???
  • 9. © Kirill Eremenko Data Science Training ln ( ) = b0 + b1*x 1 – p p Regresión Logística y (Actual DV) X p̂ (Probability) p_hat
  • 10. © Kirill Eremenko Data Science Training Regresión Logística X p̂ (Probability) 20 30 40 50 p̂ =0.7% p̂ =23% p̂ =85% p̂ =99.4% p_hat
  • 11. © Kirill Eremenko Data Science Training Regresión Logística X p̂ (Probability) y (Actual VD) ŷ (Predicción VD) 0.5 ŷ = 0 ŷ = 0 ŷ = 1 ŷ = 1 1 Fin.
  • 12. © Kirill Eremenko Data Science Training ln ( ) = b0 + b1*x 1 – p p Regresión Logística ln ( ) = b0 + b1*x1 + b2*x2 + … + bn*xn 1 – p p
  • 13. © Kirill Eremenko Data Science Training Coeficientes de la Regresión Logística Qué cosas puedes y cuales no puedes hacer: 1. PUEDES interpretar los signos de los coeficientes: ‘+’ contribuye, ‘-’ rechaza 2. NO PUEDES interpretar las magnitudes de los coeficientes para cuantificar asociaciones entre las VD y la VIs directamente 3. PUEDES comparar las magnitudes de los coeficientes para contrastar el nivel de contribución por-unidad de las diferentes VIs a la VD 4. PUEDES usar el estadístico Z para contrastar el nivel de contribución de las diferentes VIs a la VD. Como el estadístico Z está estandarizado, no hay que preocuparse del cambio de escala, pero es más difícil de interpretar.
  • 15. © SuperDataScience Machine Learning A-Z ¿Qué son los K-NN? Antes de K-NN Categoría 1 Categoría 2 x1 X2
  • 16. © SuperDataScience Machine Learning A-Z ¿Qué son los K-NN? Nuevo dato Antes de K-NN Categoría 1 Categoría 2 x1 X2
  • 17. © SuperDataScience Machine Learning A-Z ¿Qué son los K-NN? Después de K-NN Nuevo dato asignado a Categoría 1 K-NN Categoría 1 Categoría 2 x1 x2 Nuevo dato Antes de K-NN Categoría 1 Categoría 2 x1 X2
  • 18. © SuperDataScience Machine Learning A-Z ¿Cómo lo hace? PASO 1: Elegir el número K de vecinos PASO 2: Tomar los K vecinos más cercanos del nuevo dato, según la distancia Euclídea PASO 3: Entre esos K vecinos, contar el número de puntos que pertenecen a cada categoría PASO 4: Asignar el nuevo dato a la categoría con más vecinos en ella Nuestro modelo está listo
  • 19. © SuperDataScience Machine Learning A-Z Algoritmo de los K-NN PASO 1: Elegir el número K de vecinos: K = 5 Nuevo dato Categoría 1 Categoría 2 x1 x2
  • 20. © SuperDataScience Machine Learning A-Z Distancia Euclidiana x y P1(x1,y1) P2(x2,y2) x2 x1 y2 y1 Distancia Euclidiana entre P1 y P2
  • 21. © SuperDataScience Machine Learning A-Z Algoritmo de los K-NN PASO 2: Tomar los K = 5 vecinos más cercanos del nuevo dato, según la distancia Euclidiana Nuevo dato Categoría 1 Categoría 2 x1 x2
  • 22. © SuperDataScience Machine Learning A-Z Algoritmo de los K-NN PASO 2: Tomar los K = 5 vecinos más cercanos del nuevo dato, según la distancia Euclidiana Nuevo dato Categoría 1 Categoría 2 x1 x2
  • 23. © SuperDataScience Machine Learning A-Z Algoritmo de los K-NN PASO 3: De entre esos K vecinos, contar el número de puntos de cada categoría Nuevo dato Categoría 1 Categoría 2 x1 x2 Categoría 1: 3 vecinos Categoría 2: 2 vecinos
  • 24. © SuperDataScience Machine Learning A-Z Algoritmo de los K-NN PASO 4: Asignar el nuevo dato a la categoría con más vecinos Nuevo dato Categoría 1 Categoría 2 x1 x2 Categoría 1: 3 vecinos Categoría 2: 2 vecinos
  • 25. © SuperDataScience Machine Learning A-Z Algoritmo de los K-NN PASO 4: Asignar el nuevo dato a la categoría con más vecinos Nuevo dato Categoría 1 Categoría 2 x1 x2 Categoría 1: 3 vecinos Categoría 2: 2 vecinos
  • 26. © SuperDataScience Machine Learning A-Z Algoritmo de los K-NN PASO 4: Asignar el nuevo dato a la categoría con más vecinos Nuevo dato Categoría 1 Categoría 2 Nuestro modelo está listo x1 x2 Categoría 1: 3 vecinos Categoría 2: 2 vecinos
  • 27. © SuperDataScience Machine Learning A-Z Teorema de Bayes
  • 28. © SuperDataScience Machine Learning A-Z Teorema de Bayes
  • 29. © SuperDataScience Machine Learning A-Z Teorema de Bayes
  • 30. © SuperDataScience Machine Learning A-Z Teorema de Bayes m1 m1 m1 m1 m1 m1 m1 m1 m1 m1 m1 m1 m1 m2 m2 m2 m2 m2 m2 m2 m2 m2 m2
  • 31. © SuperDataScience Machine Learning A-Z Teorema de Bayes
  • 32. © SuperDataScience Machine Learning A-Z Teorema de Bayes
  • 33. © SuperDataScience Machine Learning A-Z Teorema de Bayes ¿Cuál es la probabilidad? m2
  • 34. © SuperDataScience Machine Learning A-Z Teorema de Bayes ¿Cuál es la probabilidad? m2
  • 35. © SuperDataScience Machine Learning A-Z Teorema de Bayes 𝑃(𝐴 𝐵) = 𝑃(𝐵 𝐴) ∗ 𝑃(𝐴) 𝑃(𝐵)
  • 36. © SuperDataScience Machine Learning A-Z Teorema de Bayes Máquina 1: 30 herramientas / hora Máquina 2: 20 herramientas / hora De todas las herramientas producidas: Podemos VER que el 1% son defectuosas De todas las herramientas defectuosas: Podemos VER que el 50% son producidas por la Máquina 1 y el otro 50% fueron producidas por la Máquina 2 Pregunta: ¿Cuál es la probabilidad que una herramienta producida por la máquina 2 sea defectuosa?
  • 37. © SuperDataScience Machine Learning A-Z Teorema de Bayes Máquina 1: 30 herramientas / hora Máquina 2: 20 herramientas / hora De todas las herramientas producidas: Podemos VER que el 1% son defectuosas De todas las herramientas defectuosas: Podemos VER que el 50% son producidas M1 y el otro 50% fueron producidas por la M2 Pregunta: ¿Cuál es la probabilidad que una herramienta producida por la máquina 2 sea defectuosa? -> P(Mach1) = 30/50 = 0.6 -> P(Mach1 | Defect) = 50% -> P(Mach2) = 20/50 = 0.4 -> P(Mach2 | Defect) = 50% -> P(Defect | Mach2) = ? -> P(Defect) = 1%
  • 38. © SuperDataScience Machine Learning A-Z Teorema de Bayes -> P(Mach1) = 30/50 = 0.6 -> P(Defect) = 1% -> P(Mach1 | Defect) = 50% -> P(Defect | Mach2) = ? -> P(Mach2) = 20/50 = 0.4 -> P(Mach2 | Defect) = 50% Máquina 1: 30 herramientas / hora Máquina 2: 20 herramientas / hora De todas las herramientas producidas: Podemos VER que el 1% son defectuosas De todas las herramientas defectuosas: Podemos VER que el 50% son producidas M1 y el otro 50% fueron producidas por la M2 Pregunta: ¿Cuál es la probabilidad que una herramienta producida por la máquina 2 sea defectuosa?
  • 39. © SuperDataScience Machine Learning A-Z Teorema de Bayes Máquina 1: 30 herramientas / hora Máquina 2: 20 herramientas / hora De todas las herramientas producidas: Podemos VER que el 1% son defectuosas De todas las herramientas defectuosas: Podemos VER que el 50% son producidas M1 y el otro 50% fueron producidas por la M2 Pregunta: ¿Cuál es la probabilidad que una herramienta producida por la máquina 2 sea defectuosa? -> P(Defect) = 1% -> P(Defect | Mach2) = ? -> P(Mach2) = 20/50 = 0.4 -> P(Mach2 | Defect) = 50%
  • 40. © SuperDataScience Machine Learning A-Z Teorema de Bayes Máquina 1: 30 herramientas / hora Máquina 2: 20 herramientas / hora -> P(Defect) = 1% -> P(Defect | Mach2) = ? -> P(Mach2) = 20/50 = 0.4 -> P(Mach2 | Defect) = 50% P(Defect | Mach2) = P(Mach2 | Defect) P(Defect) * P(Mach2) De todas las herramientas producidas: Podemos VER que el 1% son defectuosas De todas las herramientas defectuosas: Podemos VER que el 50% son producidas M1 y el otro 50% fueron producidas por la M2 Pregunta: ¿Cuál es la probabilidad que una herramienta producida por la máquina 2 sea defectuosa?
  • 41. © SuperDataScience Machine Learning A-Z Teorema de Bayes Máquina 1: 30 herramientas / hora Máquina 2: 20 herramientas / hora -> P(Defect) = 1% -> P(Defect | Mach2) = ? -> P(Mach2) = 20/50 = 0.4 -> P(Mach2 | Defect) = 50% P(Defect | Mach2) = 0.5 0.01 * 0.4 De todas las herramientas producidas: Podemos VER que el 1% son defectuosas De todas las herramientas defectuosas: Podemos VER que el 50% son producidas M1 y el otro 50% fueron producidas por la M2 Pregunta: ¿Cuál es la probabilidad que una herramienta producida por la máquina 2 sea defectuosa?
  • 42. © SuperDataScience Machine Learning A-Z Teorema de Bayes Máquina 1: 30 herramientas / hora Máquina 2: 20 herramientas / hora -> P(Defect) = 1% -> P(Defect | Mach2) = ? -> P(Mach2) = 20/50 = 0.4 -> P(Mach2 | Defect) = 50% P(Defect | Mach2) = 0.5 0.01 * 0.4 = 0.0125 =1.25% De todas las herramientas producidas: Podemos VER que el 1% son defectuosas De todas las herramientas defectuosas: Podemos VER que el 50% son producidas M1 y el otro 50% fueron producidas por la M2 Pregunta: ¿Cuál es la probabilidad que una herramienta producida por la máquina 2 sea defectuosa?
  • 43. © SuperDataScience Machine Learning A-Z ¡Es intuitivo! P(Defect | Mach2) = =1.25% P(Mach2 | Defect) * P(Defect) P(Mach2) Veamos un ejemplo • 1000 herramientas • 400 fabricadas por la Máquina 2 • 1% tienen un defecto = 10 • de ellas, el 50% proceden de la Máquina 2 = 5 • % de herramientas defectuosas producidas por la Máquina 2 = 5/400 = 1.25%
  • 44. © SuperDataScience Machine Learning A-Z ¡Es intuitivo! Pregunta obvia Si las herramientas venían etiquetadas, ¿por qué no podíamos simplemente contar el número de llaves inglesas defectuosas que venían de la Máquina 2 y dividir por el número total de herramientas fabricadas por dicha máquina?
  • 45. © SuperDataScience Machine Learning A-Z Teorema de Bayes Ejercicio rápido P(Defect | Mach1) = ?
  • 46. © SuperDataScience Machine Learning A-Z Teorema de Bayes -> P(Mach1) = 30/50 = 0.6 -> P(Mach1 | Defect) = 50% -> P(Mach2) = 20/50 = 0.4 -> P(Mach2 | Defect) = 50% -> P(Defect) = 1% Máquina 1: 30 herramientas / hora Máquina 2: 20 herramientas / hora De todas las herramientas producidas: Podemos VER que el 1% son defectuosas De todas las herramientas defectuosas: Podemos VER que el 50% son producidas M1 y el otro 50% fueron producidas por la M2
  • 47. © SuperDataScience Machine Learning A-Z Idea del Clasificador con Naïve Bayes
  • 49. © SuperDataScience Machine Learning A-Z Naïve Bayes 𝑃(𝐴 𝐵) = 𝑃(𝐵 𝐴) ∗ 𝑃(𝐴) 𝑃(𝐵)
  • 50. © SuperDataScience Machine Learning A-Z X1 X2 Naïve Bayes Edad Sueldo Categoría 1 Categoría 2 Camina Conduce
  • 51. © SuperDataScience Machine Learning A-Z Naïve Bayes Sueldo Nuevo Dato Camina Conduce Edad
  • 52. © SuperDataScience Machine Learning A-Z Naïve Bayes Plan de Ataque
  • 53. © SuperDataScience Machine Learning A-Z Naïve Bayes 𝑃(𝐴 𝐵) = 𝑃(𝐵 𝐴) ∗ 𝑃(𝐴) 𝑃(𝐵)
  • 54. © SuperDataScience Machine Learning A-Z Paso 1 Probabilidad a Posteriori Probabilidad Condicionada Probabilidad a Priori Probabilidad Marginal 𝑃(𝑊alks 𝑋) = 𝑃(𝑋 𝑊𝑎𝑙𝑘𝑠) ∗ 𝑃(𝑊𝑎𝑙𝑘𝑠) 𝑃(𝑋) #1 #2 #3 #4
  • 55. © SuperDataScience Machine Learning A-Z Paso 2 Probabilidad a Posteriori Probabilidad Condicionada Probabilidad a Priori Probabilidad Marginal 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠 𝑋) = 𝑃(𝑋 𝐷𝑟𝑖𝑣𝑒𝑠) ∗ 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠) 𝑃(𝑋) #1 #2 #3 #4
  • 56. © SuperDataScience Machine Learning A-Z Paso 3 𝑃(𝑊𝑎𝑙𝑘𝑠 𝑋) 𝑣 . 𝑠 . 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠 𝑋)
  • 57. © SuperDataScience Machine Learning A-Z Naïve Bayes ¿Listo?
  • 58. © SuperDataScience Machine Learning A-Z Naïve Bayes: Paso 1 Sueldo Camina Conduce Edad
  • 59. © SuperDataScience Machine Learning A-Z Naïve Bayes: Paso 1 #1. P(Camina) 𝑃(𝑊𝑎𝑙𝑘𝑠) = 𝑁𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑊𝑎𝑙𝑘𝑒𝑟𝑠 𝑇𝑜𝑡𝑎𝑙 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑡𝑖𝑜𝑛𝑠 𝑃(𝑊𝑎𝑙𝑘𝑠) = 10 30 Sueldo Camina Conduce Edad
  • 60. © SuperDataScience Machine Learning A-Z Naïve Bayes: Paso 1 Probabilidad a Posteriori Probabilidad Condicionada Probabilidad a Priori Probabilidad Marginal 𝑃(𝑊𝑎𝑙𝑘𝑠 𝑋) = 𝑃(𝑋 𝑊𝑎𝑙𝑘𝑠) ∗ 𝑃(𝑊𝑎𝑙𝑘𝑠) 𝑃(𝑋) #1 #2 #3 #4
  • 61. © SuperDataScience Machine Learning A-Z Naïve Bayes: Paso 1 #2. P(X) 𝑃(𝑋) = 𝑁𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑆𝑖𝑚𝑖𝑙𝑎𝑟 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑡𝑖𝑜𝑛𝑠 𝑇𝑜𝑡𝑎𝑙 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑡𝑖𝑜𝑛𝑠 𝑃(𝑋) = 4 30 Sueldo Camina Conduce Edad
  • 62. © SuperDataScience Machine Learning A-Z Naïve Bayes: Paso 1 Probabilidad a Posteriori Probabilidad Condicionada Probabilidad a Priori Probabilidad Marginal 𝑃(𝑊𝑎𝑙𝑘𝑠 𝑋) = 𝑃(𝑋 𝑊𝑎𝑙𝑘𝑠) ∗ 𝑃(𝑊𝑎𝑙𝑘𝑠) 𝑃(𝑋) #1 #2 #3 #4
  • 63. © SuperDataScience Machine Learning A-Z Naïve Bayes: Paso 1 #3. P(X|Camina) 𝑃(𝑋|𝑊𝑎𝑙𝑘𝑠) = 𝑁𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑆𝑖𝑚𝑖𝑙𝑎𝑟 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑡𝑖𝑜𝑛𝑠 𝐴𝑚𝑜𝑛𝑔 𝑡h𝑜𝑠𝑒 𝑤h𝑜 𝑊𝑎𝑙𝑘 𝑇𝑜𝑡𝑎𝑙 𝑛𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑊𝑎𝑙𝑘𝑒𝑟𝑠 𝑃(𝑋|𝑊𝑎𝑙𝑘𝑠) = 3 10 Sueldo Camina Conduce Edad
  • 64. © SuperDataScience Machine Learning A-Z Naïve Bayes: Paso 1 Probabilidad a Posteriori Probabilidad Condicionada Probabilidad a Priori Probabilidad Marginal 𝑃(𝑊𝑎𝑙𝑘𝑠 𝑋) = 𝑃(𝑋 𝑊𝑎𝑙𝑘𝑠) ∗ 𝑃(𝑊𝑎𝑙𝑘𝑠) 𝑃(𝑋) #1 #2 #3 #4
  • 65. © SuperDataScience Machine Learning A-Z Naïve Bayes: Paso 1 Probabilidad a Posteriori Probabilidad Condicionada Probabilidad a Priori Probabilidad Marginal #1 #2 #3 #4 𝑃(𝑊𝑎𝑙𝑘𝑠 𝑋) = 3 10 ∗ 10 30 4 30 = 0.75
  • 66. © SuperDataScience Machine Learning A-Z Naïve Bayes Paso 1 – Listo.
  • 67. © SuperDataScience Machine Learning A-Z Paso 2 Probabilidad a Posteriori Probabilidad Condicionada Probabilidad a Priori Probabilidad Marginal 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠 𝑋) = 𝑃(𝑋 𝐷𝑟𝑖𝑣𝑒𝑠) ∗ 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠) 𝑃(𝑋) #1 #2 #3 #4
  • 68. © SuperDataScience Machine Learning A-Z Naïve Bayes: Paso 2 Probabilidad a Posteriori Probabilidad Condicionada Probabilidad a Priori Probabilidad Marginal #1 #2 #3 #4 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠 𝑋) = 1 20 ∗ 20 30 4 30 = 0.25
  • 69. © SuperDataScience Machine Learning A-Z Naïve Bayes Paso 2 – Listo.
  • 70. © SuperDataScience Machine Learning A-Z Paso 3 𝑃(𝑊𝑎𝑙𝑘𝑠 𝑋) 𝑣 . 𝑠 . 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠 𝑋)
  • 71. © SuperDataScience Machine Learning A-Z Paso 3 0 . 75 𝑣 . 𝑠 . 0.25
  • 72. © SuperDataScience Machine Learning A-Z Paso 3 0 . 75 > 0 . 25
  • 73. © SuperDataScience Machine Learning A-Z Paso 3 𝑃(𝑊alks 𝑋) > 𝑃(𝐷𝑟𝑖𝑣𝑒𝑠 𝑋)
  • 74. © SuperDataScience Machine Learning A-Z Naïve Bayes Sueldo Nuevo Dato Camina Conduce Edad
  • 75. © SuperDataScience Machine Learning A-Z Naïve Bayes Sueldo Nuevo Dato Camina Conduce Edad