Modèle Linéaire pour
classification
77
Classification linéaire: Introduction
Question: Comment adopter le modèle linéaire
à la classification?
78
Classification linéaire: Classification binaire
Une classification binaire a 2 classes
Dans ce genre de problème, on aura un Dataset contenant une variable
target 𝒚 pouvant prendre 2 valeurs seulement,
79
(𝑦′ = {−1,1}):
• 𝑔 𝑥 = 𝑠𝑖𝑔𝑛 𝑦 − 𝑤 𝑥
• 𝑑 + 1 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒𝑠
Exemple:
Pour une Dataset d’emails
• si 𝑦 = -1, alors l’email n’est pas un spam
• si 𝑦 = 1, alors l’email est un spam
Classification linéaire: Classification binaire
Classification binaire: ( ):
•
•
80
Exemple:
Pour une Dataset d’emails
• si 𝑦 = -1, alors l’email n’est pas un spam
• si 𝑦 = 1, alors l’email est un spam
Classification binaire:Logistic Regression(1)
 le modèle de régression logistique est utilisé
pour résoudre les problèmes de classification
binaire,
 Le modèle est linéaire 𝑔 𝑥 = 𝑤 𝑥
 La fonction d’activation:on applique la fonction
logistique (aussi appelé fonction sigmoïde ou tout
simplement sigma 𝝈) sur la sortie linéaire
𝜎 𝑥 =
1
1 + 𝑒
 Cette fonction permet de transformer le modèle
linéaire en une fonction non linéaire toujours
comprise en 0 et 1.
81
Classification binaire:Logistic Regression(2)
• A partir de cette fonction, il est possible de
définir un seuil,
• Typiquement, on définit le seuil à 0.5 comme
ceci :
𝒚=-1 𝒔𝒊 𝝈(𝑿.𝜽)<𝟎.𝟓
𝒚=𝟏 𝒔𝒊 𝝈(𝑿.𝜽)≥𝟎.𝟓
82
Classification linéaire: Classification multiple
83
Classification linéaire:Classification multi-classes
(Kclasses)
• Classification multi-classes ( 𝑦 ∈ {1, , , , , 𝐾}):
• Nombre de paramètres: 𝐾 × 𝑑 𝑤 ∈ ℝ
• Exemple:
𝑧 = 7, −7,5,10 𝑠𝑐𝑜𝑟𝑒𝑠
𝑔 𝑥 = 3
84
𝑔
Classification multi-classes:SoftMaxfunction
• Calculer des scores positifs, compris entre 0 et 1 sous forme d’une distribution
de probabilités (logits) à partir du modèle linéaire:
• On applique SoftMax transform
𝑧 = (𝑤 𝑥, … . , 𝑤 𝑥)
(𝑧 , 𝑧 … . , 𝑧 )
(𝑒 , … … . , 𝑒 )
𝜎 𝑧 = (
𝑒
∑ 𝑒
, … . ,
𝑒
∑ 𝑒
) SoftMax function
85
Classification linéaire: softmaxfunction
𝜎 𝑧 = (
𝑒
∑ 𝑒
, … . ,
𝑒
∑ 𝑒
)
Exemple
𝑧 = (7, −7.5, 10)
𝜎 𝑧 = (0.05, 0, 0.95)
86
Classification linéaire: Loss function?
• output du modèle:prédiction des probabilités des classes
𝜎 𝑧 = (
𝑒
∑ 𝑒
, … . ,
𝑒
∑ 𝑒
)
p= ([𝑦 = 1], … . , [𝑦 = 𝐾])
-∑ 𝑦 = 𝑘 𝑙𝑜𝑔 ∑
=- log
∑
• La valeur des targets pour la probabilité des classes
• La similarité entre z et p peut être mesurée par l’entropie croisée (Cross entropy
[a]:Iverson brackets:
[a]=
1 Si a est true
0 Si a est false
87
Classification linéaire: cross entropyexemple
•
88
Classification linéaire:crossentropypour classification
•
La fonction cross-entropy est différentiable et peut être utilisée comme Loss Function
𝐿 𝑤 = − 𝑦 = 𝑘 𝑙𝑜𝑔
𝑒
∑ 𝑒
− 𝑙𝑜𝑔
𝑒
∑ 𝑒
→ min 𝐿(𝑤)
89
Classification linéaire: Récapitulatif
• Les modèles linéaires peuvent facilement généralisés pour les tâches de classification
• Régression---------- Loss Function : MSE (Mean Squared Error)
• Classification------- Loss Function: Cross Entropy
90

Contenu connexe

PPTX
Introduction Approfondie aux Fondamentaux et Vue d'Ensemble du Machine Learning
PPTX
Introduction to Machine learning
PDF
regression_multiple_pour_le_classement.pdf
PPTX
Les 10 plus populaires algorithmes du machine learning
PDF
Cours de Machine Learning Séance N2 _ Classification .pdf
PDF
Regression logistque
PDF
Ch6 Introduction à la Science de Données.pdf
Introduction Approfondie aux Fondamentaux et Vue d'Ensemble du Machine Learning
Introduction to Machine learning
regression_multiple_pour_le_classement.pdf
Les 10 plus populaires algorithmes du machine learning
Cours de Machine Learning Séance N2 _ Classification .pdf
Regression logistque
Ch6 Introduction à la Science de Données.pdf

Similaire à 3-classLineaire3-classLineaire3-classLineaire3-classLineaire3-classLineaire (6)

PDF
chap7chap7chap7chap7chap7chap7chap7chap7chap7
PDF
1-ConceptsBase1-ConceptsBase1-ConceptsBase1-ConceptsBase
PDF
Neural Network -How it works, an implementation with python-.pdf
PDF
logistic_regression_ml.pdf
PDF
Tadti crs3-n
PPTX
RapportPP_AIDFRTREMO_Du GepectantGETTEC.pptx
chap7chap7chap7chap7chap7chap7chap7chap7chap7
1-ConceptsBase1-ConceptsBase1-ConceptsBase1-ConceptsBase
Neural Network -How it works, an implementation with python-.pdf
logistic_regression_ml.pdf
Tadti crs3-n
RapportPP_AIDFRTREMO_Du GepectantGETTEC.pptx
Publicité

Plus de Oussama Haj Salem (7)

PPT
animations_tris_2025animations_tris_2025.ppt
PDF
Algorithme_recurrent_Yassine_Ben_Salah_D.pdf
PDF
gradientDescentgradientDescentgradientDescent
PDF
arbresDecisionarbresDecisionarbresDecision
PDF
Bases_Python_1Bases_Python_1Bases_Python_1.pdf
PDF
Backpropagation - A peek into the Mathematics of optimization.pdf
PPTX
Lec1 intoduction.pptx
animations_tris_2025animations_tris_2025.ppt
Algorithme_recurrent_Yassine_Ben_Salah_D.pdf
gradientDescentgradientDescentgradientDescent
arbresDecisionarbresDecisionarbresDecision
Bases_Python_1Bases_Python_1Bases_Python_1.pdf
Backpropagation - A peek into the Mathematics of optimization.pdf
Lec1 intoduction.pptx
Publicité

Dernier (9)

PDF
Analyse technique approfondie pour la gestion des transports dans SAP S/4HANA...
PDF
Frais et décompte dans SAP S/4HANA Transportation Management, S4TM3 Col26
PPTX
Projet de Fin d’Études – Plateforme FMS pour la Gestion des FCPR
PDF
COURS GCDs Chap 9.pdf tous les éléments.
PPT
Pratiques des systèmes d'information ppt
PDF
Démystification des QR codes - histoire - utilisations - techniques
PDF
IPTV Meilleur - Le Meilleur Abonnement IPTV en France pour 2025
PPTX
test pour la présentation foire de Chalôns V1
PDF
Architecture logicielle et Modeles de Conception
Analyse technique approfondie pour la gestion des transports dans SAP S/4HANA...
Frais et décompte dans SAP S/4HANA Transportation Management, S4TM3 Col26
Projet de Fin d’Études – Plateforme FMS pour la Gestion des FCPR
COURS GCDs Chap 9.pdf tous les éléments.
Pratiques des systèmes d'information ppt
Démystification des QR codes - histoire - utilisations - techniques
IPTV Meilleur - Le Meilleur Abonnement IPTV en France pour 2025
test pour la présentation foire de Chalôns V1
Architecture logicielle et Modeles de Conception

3-classLineaire3-classLineaire3-classLineaire3-classLineaire3-classLineaire

  • 2. Classification linéaire: Introduction Question: Comment adopter le modèle linéaire à la classification? 78
  • 3. Classification linéaire: Classification binaire Une classification binaire a 2 classes Dans ce genre de problème, on aura un Dataset contenant une variable target 𝒚 pouvant prendre 2 valeurs seulement, 79 (𝑦′ = {−1,1}): • 𝑔 𝑥 = 𝑠𝑖𝑔𝑛 𝑦 − 𝑤 𝑥 • 𝑑 + 1 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒𝑠 Exemple: Pour une Dataset d’emails • si 𝑦 = -1, alors l’email n’est pas un spam • si 𝑦 = 1, alors l’email est un spam
  • 4. Classification linéaire: Classification binaire Classification binaire: ( ): • • 80 Exemple: Pour une Dataset d’emails • si 𝑦 = -1, alors l’email n’est pas un spam • si 𝑦 = 1, alors l’email est un spam
  • 5. Classification binaire:Logistic Regression(1)  le modèle de régression logistique est utilisé pour résoudre les problèmes de classification binaire,  Le modèle est linéaire 𝑔 𝑥 = 𝑤 𝑥  La fonction d’activation:on applique la fonction logistique (aussi appelé fonction sigmoïde ou tout simplement sigma 𝝈) sur la sortie linéaire 𝜎 𝑥 = 1 1 + 𝑒  Cette fonction permet de transformer le modèle linéaire en une fonction non linéaire toujours comprise en 0 et 1. 81
  • 6. Classification binaire:Logistic Regression(2) • A partir de cette fonction, il est possible de définir un seuil, • Typiquement, on définit le seuil à 0.5 comme ceci : 𝒚=-1 𝒔𝒊 𝝈(𝑿.𝜽)<𝟎.𝟓 𝒚=𝟏 𝒔𝒊 𝝈(𝑿.𝜽)≥𝟎.𝟓 82
  • 8. Classification linéaire:Classification multi-classes (Kclasses) • Classification multi-classes ( 𝑦 ∈ {1, , , , , 𝐾}): • Nombre de paramètres: 𝐾 × 𝑑 𝑤 ∈ ℝ • Exemple: 𝑧 = 7, −7,5,10 𝑠𝑐𝑜𝑟𝑒𝑠 𝑔 𝑥 = 3 84 𝑔
  • 9. Classification multi-classes:SoftMaxfunction • Calculer des scores positifs, compris entre 0 et 1 sous forme d’une distribution de probabilités (logits) à partir du modèle linéaire: • On applique SoftMax transform 𝑧 = (𝑤 𝑥, … . , 𝑤 𝑥) (𝑧 , 𝑧 … . , 𝑧 ) (𝑒 , … … . , 𝑒 ) 𝜎 𝑧 = ( 𝑒 ∑ 𝑒 , … . , 𝑒 ∑ 𝑒 ) SoftMax function 85
  • 10. Classification linéaire: softmaxfunction 𝜎 𝑧 = ( 𝑒 ∑ 𝑒 , … . , 𝑒 ∑ 𝑒 ) Exemple 𝑧 = (7, −7.5, 10) 𝜎 𝑧 = (0.05, 0, 0.95) 86
  • 11. Classification linéaire: Loss function? • output du modèle:prédiction des probabilités des classes 𝜎 𝑧 = ( 𝑒 ∑ 𝑒 , … . , 𝑒 ∑ 𝑒 ) p= ([𝑦 = 1], … . , [𝑦 = 𝐾]) -∑ 𝑦 = 𝑘 𝑙𝑜𝑔 ∑ =- log ∑ • La valeur des targets pour la probabilité des classes • La similarité entre z et p peut être mesurée par l’entropie croisée (Cross entropy [a]:Iverson brackets: [a]= 1 Si a est true 0 Si a est false 87
  • 12. Classification linéaire: cross entropyexemple • 88
  • 13. Classification linéaire:crossentropypour classification • La fonction cross-entropy est différentiable et peut être utilisée comme Loss Function 𝐿 𝑤 = − 𝑦 = 𝑘 𝑙𝑜𝑔 𝑒 ∑ 𝑒 − 𝑙𝑜𝑔 𝑒 ∑ 𝑒 → min 𝐿(𝑤) 89
  • 14. Classification linéaire: Récapitulatif • Les modèles linéaires peuvent facilement généralisés pour les tâches de classification • Régression---------- Loss Function : MSE (Mean Squared Error) • Classification------- Loss Function: Cross Entropy 90