Pythonで線形回帰の曲線を描いたりはしていたが、こうして回帰分析が出てくるとなんだかうれしい。
今日は内容が比較的軽く、気楽に聞くことができた。
1. 回帰分析の歴史的背景

回帰分析の「回帰」とは、平均値に戻るという意味である。
Galtonという科学者が、親と子どもの身長データを分析し、区間ごとの平均値を使って直線を引き、その平均的な線を描いた。
不思議なのは、x軸とy軸を入れ替えても、線の傾きが似たように出ること。
これにより、回帰分析の結果は親子間の遺伝的な秘密ではなく、回帰分析そのものの数学的な特性であることが分かったという。
該当論文は下記で見ることができる。
Galton, F. (1886). Regression Towards Mediocrity in Hereditary Stature. Journal of the Anthropological Institute of Great Britain and Ireland, 15, 246–263.2. 相関係数 (Correlation)
一つの変数が変化したとき、もう一つの変数がどの方向にどのように変化するかを示す統計指標である。
線形回帰で求めた値は、二つの値の物理的な比例関係ではなく、相関の程度を表している。
これを相関係数という。
3. 所感
今日は本当に内容がやさしくて、そのままさっと流してしまった。
久しぶりにPythonで線形回帰の関数でも探して書いてみようと思ったが、久々に見るとあまり思い出せなかった。
import numpy as np
x = np.array([1, 2, 3, 4, 5])
y = np.array([2, 4, 5, 4, 5])
slope, intercept = np.polyfit(x, y, 1)
print(slope, intercept)やはり勉強は継続して行い、頻繁に触れておく必要があるようだ。
댓글을 불러오는 중...