- Mon Shot de Data Science
- Posts
- Valide toujours ta variable de sortie avant d'utiliser la régression linéaire
Valide toujours ta variable de sortie avant d'utiliser la régression linéaire
#130 - Que se passe-t-il si tu ne le fais pas ?
L'efficacité d'un modèle de régression linéaire dépend en grande partie de la mesure dans laquelle nos données répondent aux hypothèses sous-jacentes de l'algorithme.
La régression linéaire suppose intrinsèquement que les résidus (valeur réelle - prédiction) suivent une distribution normale. Cette hypothèse peut être enfreinte lorsque les résultats sont asymétriques.
Par conséquent, l'ajustement de la régression sera incorrect.
Mais ce qui est bien, c'est qu'il est possible d'y remédier. Une façon courante de rendre le résultat symétrique avant d'ajuster un modèle de régression linéaire, c’est d'appliquer une transformation logarithmique.
Cette transformation va supprimer l'asymétrie en répartissant uniformément les données, ce qui leur donne un aspect plus ou moins normal.
Il convient de noter que si la sortie comporte des valeurs négatives, une transformation logarithmique entraînera une erreur. Dans ce cas, on peut appliquer d’abord une transformation de translation à la sortie, suivi du logarithme.
Et toi, quels sont les autres moyens que tu utilises pour résoudre ce problème ?
Notebook du code de l’illustration ci-dessus.
Ça t'a plu ? 😎 |
Reply