<aside> 📢 Buscamos predecir un valor en un rango continuo, para ciertos valores de entrada.
</aside>
Regresión lineal o ajuste
Modelo lineal simple
El modelo de regresion lineal simple es un modelo para el vínculo de dos variables, se dice simple ya que vincula sólo una variable predictora con la variable de respuesta.
X = variable predictora o covariable
Y = variable dependiente o de respuesta.
Y ≈ β0 + β1 * X
β0^ es la estimación del parámetro β0 , se lo denomina intercepto y es la ordenada al origen de la recta.
β1^ es la estimación del parámetro β1 , es la pendiente de la recta.
En resumen:
El modelo lineal simple consiste en predecir una respuesta numérica Y en base a una única variable predictora X, suponiendo una relación lineal. Vamos a estimar los parámetros β0 y β1.
Modelo lineal múltiple
En un modelo lineal múltiple tenemos más de una variable predictora:
Y ≈ β0 + β1 * X1 + β2 * X2 + ... βn * Xn
Descenso por gradiente
El error producido por una predicción de regresión lineal se calcula como $y - y'$ siendo $y'$ el valor predicho e $y$ el real.

Métricas para “medir” el error
MAE (Mean Absolute Error o error medio absoluto)
$MAE=\frac{1}{n}\sum_{i=1}^n |y_i'-y_i|$
MSE (Mean Square Error o error cuadrático medio)
Medida de qué tan cercana es la recta de regresión a los puntos que representan los datos. Mientras más chico más cerca está nuestro modelo de los datos reales. Al ser un valor elevado al cuadrado, es sensible a valores de diferencias grandes.
$MSE= \frac{1}{n}\sum_{i=1}^n (y_i'-y_i)²$
RMSE (Root Mean Square Error o raíz del error cuadrático medio)
Tiene las mismas unidades que los valores representados en el eje vertical. Es la distancia de un punto hasta la recta de regresión, medida en línea recta. Mide el desvío estándar (cuánto se alejan los valores de la media).
$RMSE= \sqrt{\frac{1}{n}\sum_{i=1}^n (y_i'-y_i)²}$
R²
Es la proporción de variabilidad explicada por el modelo, se lo denomina coeficiente de determinación.
No depende de las unidades de medida y su valor está entre 0 y 1 .
Cuando R² = 0 el modelo se ajusta poco a la varibilidad de los datos. Por el contrario R² = 1 se ajusta mucho a la variabilidad de los datos.
Mientras mayor, mayor es la fuerza de la/s variable/s regresora/s para predecir la variable respuesta. Mayor es la capacidad del modelo de explicar el fenómeno.
$R²=\frac{TSS-RSS}{TSS}$ .
Ejemplo: si R² = 0.64 el modelo logra explicar un 64% de la variabilidad de los datos.