Soleía trazar curvas de regresión lineal con Python, así que me alegra que ahora salga el tema del análisis de regresión.
El contenido de hoy se pudo escuchar de forma relativamente ligera.
1. Contexto histórico del análisis de regresión

En el análisis de regresión, “regresión” significa volver al valor promedio.
Un científico llamado Galton analizó datos de estatura de padres e hijos, trazó rectas usando los valores promedio por intervalo y luego dibujó una línea promedio.
Lo curioso es que, aunque se intercambien los ejes x e y, la pendiente de la recta resulta similar.
A través de esto se llegó a saber que el resultado del análisis de regresión no es un secreto genético entre padres e hijos, sino una característica matemática del propio análisis de regresión.
Se puede consultar el artículo correspondiente a continuación.
Galton, F. (1886). Regression Towards Mediocrity in Hereditary Stature. Journal of the Anthropological Institute of Great Britain and Ireland, 15, 246–263.2. Coeficiente de correlación (Correlation)
Es un indicador estadístico que muestra, cuando una variable cambia, en qué dirección y de qué manera cambia otra variable.
El valor obtenido mediante la regresión lineal no es una relación de proporcionalidad física entre los dos valores, sino el grado de correlación.
A esto se le llama coeficiente de correlación.
3. Comentario final
El contenido de hoy fue realmente sencillo, así que lo pasé rápido.
Hacía mucho que no buscaba una función de regresión lineal en Python para escribirla, y al verla después de tanto tiempo, no me venía bien a la mente.
import numpy as np
x = np.array([1, 2, 3, 4, 5])
y = np.array([2, 4, 5, 4, 5])
slope, intercept = np.polyfit(x, y, 1)
print(slope, intercept)Al fin y al cabo, hay que estudiar de forma constante y revisar las cosas con frecuencia.
댓글을 불러오는 중...