Régressions linéaires
Les régressions linéaires sont des modèles assez courants. Voici une explication succincte.
Le but d'une régression est de trouver la droite (l'équation) qui minimise l'erreur de prédiction au sein des données.
Régression linéaire simple :
Voici une représentation graphique (source de l'image : Wikipédia) :

D'un point de vue mathématique, la régression à pour équation :

On cherche le coefficient Beta 1 de la variable explicative et le déterminant à l'origine Beta 0 qui minimisent l'erreur de la prédiction totale de notre équation. À noter que le modèle optimale d'une régression linéaire simple peut être trouver manuellement. Ce n'est pas le cas des régressions linéaires multiples où il faut des algorithmes d'optimisations.
Voici un cas d'application pratique :

Régression linéaire multiple :
La régression multiple fonctionne exactement de la même façon que la régression simple, à la différence que le nombre de variables explicatives augmentes et donc le nombre de coefficients augmente aussi.

Les β sont les coefficients (aussi paramètre) du modèle de prédiction, β_0 est l’intercepte, les X sont les variables indépendantes (Y est la variable dépendante), et ε est l’erreur d’ajustement du modèle.

Le calcul de l’ajustement des coefficients vise à minimiser l’erreur résiduelle, c-à-d la différence entre les prédictions et la réalité en utilisant, en général, la technique des moindres carrés.
Pour comparer l’influence des coefficients sur la variable réponse il faut analyser le modèle avec une transformation centré réduite des variables (ce qui fait disparaitre β_0).