Équation de régression linéaire, formule et propriétés


La régression linéaire s’efforce de montrer la relation entre deux variables en appliquant une équation linéaire aux données observées. Une variable est censée être une variable indépendante, et l’autre est une variable dépendante. Par exemple, le poids de la personne est linéairement lié à sa taille. Cela montre donc une relation linéaire entre la taille et le poids de la personne. Au fur et à mesure que la taille augmente, le poids de la personne augmente également.

Il n’est pas nécessaire qu’ici une variable dépende des autres, ou que l’une cause l’autre, mais il existe une relation critique entre les deux variables. Dans de tels cas, nous utilisons un nuage de points pour impliquer la force de la relation entre les variables. S’il n’y a pas de relation ou de lien entre les variables, le nuage de points n’indique aucun modèle croissant ou décroissant. Dans de tels cas, le plan de régression linéaire n’est pas avantageux pour les données données.

Lisez aussi:

Équation de régression linéaire

La mesure de l’étendue de la relation entre deux variables est indiquée par Coefficient de corrélation. La plage de ce coefficient est comprise entre -1 et +1. Ce coefficient montre la force de l’association des données observées pour deux variables.

Une équation de droite de régression linéaire s’écrit sous la forme:

Y = a + bX

où X est la variable indépendante et tracée le long de l’axe des x

Y est la variable dépendante et tracée le long de l’axe des y

La pente de la droite est b, et a est l’intersection (la valeur de y lorsque x = 0).

Formule de régression linéaire

La régression linéaire montre la relation linéaire entre deux variables. L’équation de régression linéaire est similaire à la formule de pente que nous avons appris auparavant dans les classes précédentes telles que les équations linéaires à deux variables. Il est donné par;

Y = a + bX

Maintenant, nous devons trouver ici la valeur de la pente de la droite, b, tracée en nuage de points et l’interception, a.

Formule de régression linéaire

Régression linéaire simple

Le cas le plus simple d’une variable prédictive scalaire unique x et d’une variable de réponse scalaire unique y est appelé régression linéaire simple. L’équation de cette régression est représentée par;

y = a + bx

L’expansion vers des variables prédictives multiples et vectorielles est connue sous le nom de régression linéaire multiple, également appelée régression linéaire multivariée. L’équation de cette régression est représentée par;

Y = a + bX

Presque tous les modèles de régression du monde réel incluent des prédicteurs multiples, et les explications de base de la régression linéaire sont souvent expliquées en termes de forme de régression multiple. Notez que, cependant, dans ces cas, la variable dépendante est encore un scalaire.

Ligne de régression des moindres carrés ou ligne de régression linéaire

La méthode la plus courante pour ajuster une droite de régression dans le graphique XY est la méthode des moindres carrés. Ce processus détermine la ligne la mieux ajustée pour les données notées en réduisant la somme des carrés des écarts verticaux de chaque point de données à la ligne. Si un point repose avec précision sur la ligne ajustée, alors son écart perpendiculaire est 0. Puisque les variations sont d’abord mises au carré, puis ajoutées, leurs valeurs positives et négatives ne seront pas annulées.

Ligne de régression linéaire

La régression linéaire détermine la ligne droite, appelée la ligne de régression des moindres carrés ou LSRL, qui exprime le mieux les observations dans une analyse bivariée d’un ensemble de données. Supposons que Y est une variable dépendante et X est une variable indépendante, alors la droite de régression de la population est donnée par;

Y = B0+ BuneX

B0 est une constante

Bune est le coefficient de régression

Si un échantillon aléatoire d’observations est donné, la droite de régression est exprimée par;

ŷ = b0 + buneX

où b0 est une constante, bune est le coefficient de régression, x est la variable indépendante et ŷ est la valeur prédite de la variable dépendante.

Propriétés de la régression linéaire

Pour la droite de régression où les paramètres de régression b0 et Bune sont définies, les propriétés sont données comme:

  • La ligne réduit la somme des différences au carré entre les valeurs observées et les valeurs prévues.
  • La droite de régression passe par la moyenne des valeurs des variables X et Y
  • La constante de régression (b0) est égal à l’ordonnée à l’origine de la régression linéaire
  • Le coefficient de régression (bune) est la pente de la droite de régression qui est égale à la variation moyenne de la variable dépendante (Y) pour une variation d’unité de la variable indépendante (X).

Coefficient de régression

Dans la droite de régression linéaire, nous avons vu que l’équation est donnée par;

Y = B0+ BuneX

B0 est une constante

Bune est le coefficient de régression

Voyons maintenant la formule pour trouver la valeur du coefficient de régression.

Bune = bune = Σ[(X[(xje – x) (yje – et) ]/ Σ[(X[(xje – X)deux]

Où xje et etje sont les ensembles de données observés.

Et x et y sont la valeur moyenne.

->





Source link

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *