Single Linear Regression
- 목적 : 하나의 독립 변수와 하나의 종속 변수 간의 선형 관계를 모델링하는 통계적 기법
한 변수의 변화가 다른 변수에 어떻게 영향을 미치는지 이해하고, 이를 기반으로 예측을 수행할 수 있습니다.
선형 회귀의 핵심은 평균 제곱 오차 (Mean Squared Error, MSE)를 줄이는 것입니다.
즉, 모델의 예측값이 실제값과 최대한 가깝게 만드는 것이 목표입니다.
장점
- 간단함: 선형 회귀는 가장 기본적인 회귀로 이해하기 쉽고 사용하기 간단합니다.
- 빠름: 계산이 빠르므로 대용량 데이터에 대해서도 비교적 빠르게 실행됩니다.
- 파라미터 튜닝 불필요: 선형 회귀는 파라미터 튜닝이 필요 없습니다.
- 예를 들어 K-최근접 이웃에서의 K 값이나 신경망에서의 학습률 등을 조절할 필요가 없습니다.
- 해석 가능성: 선형 회귀 모델은 각 변수의 계수를 통해 어떤 변수가 종속 변수에 미치는 영향을 직접적으로 이해하고 해석할 수 있습니다.
종류
단순 선형 회귀
단순 선형 회귀는 1차식으로 표현이 됩니다.
하나의 종속 변수와 독립 변수가 포함 됩니다.
Y= β0*X + β1
다중 선형 회귀
다중 선형 회귀 분석에서 데이터 세트에는 하나의 종속 변수와 여러 독립 변수가 포함됩니다.
Y= β0*X0 + β1X1 + β2X2+…… βnXn+ ε
평균 제곱 오차 (Mean Squared Error, MSE)란
선형 회귀 모델의 적합도는 평균 제곱 오차(MSE)로 측정됩니다.
MSE는 실제 값과 예측 값의 차이를 제곱한 값의 평균입니다.
레퍼런스
부족한 점이나 잘못 된 점을 알려주시면 시정하겠습니다 :>
'AI' 카테고리의 다른 글
Model Evaluation in Regression Models (0) | 2023.07.05 |
---|---|
Supervised vs Unsupervised (0) | 2023.07.05 |
비지도 학습(Unsupervised Learning) (0) | 2023.07.05 |
지도 학습(Supervised Learning) (0) | 2023.07.05 |
Regression(회귀) 모델 (0) | 2023.07.05 |