-
Logistic RegressionAI\ML\DL/Deep learning theory 2023. 5. 8. 18:33๋ฐ์ํ
Logistic Regression
Sigmoid๋ฅผ ์ด์ฉํ ์ด์ง๋ถ๋ฅ๋ฅผ ์ํํ๊ธฐ ์ํด Logistic regression์ ๊ฐ๋ ์ ๋ํด ์์๋ณด์.
Logistic Regression์ ์ ํํจ์์์ logit์ ํ๊ทํ ๊ฒ์ด๋ค.
์ฌ๊ธฐ์ Logit์, log-odds ๋ก odds๋ ์ฑ๊ณต ํ๋ฅ ๊ณผ ์คํจ ํ๋ฅ ์ ๋น์จ (์น์ฐ) ์ ๋งํ๊ณ , logit์ odds ์ log ๊ฐ์ ์ทจํ ๊ฒ์ ๋งํ๋ค.
$$logit=\mathrm{log}\frac{q}{1-q}$$
๋ก์ง์คํฑ ํ๊ท์์๋ ์ฐ์ ๋ชจ๋ธ์ ์ ๋ ฅ ๋ณ์์ ๊ฐ์ค์น์ ์ ํ์กฐํฉ์ผ๋ก ๋ชจ๋ธ์ ์ถ๋ ฅ๊ฐ์ ๊ณ์ฐํ๋ค.
์ ๋ ฅ๊ณผ ํน์ ๋ ์ด๋ธ์ ์ํ ํ๋ฅ ์ฌ์ด์ ๊ด๊ณ๋ฅผ ๋ชจ๋ธ๋งํ๊ธฐ ์ํด ๋์ ํ๋ ํจ์๊ฐ logit ํจ์๋ค.
๊ทธ ๋ค์ logit์ Sigmoid ํจ์์ ํต๊ณผ์์ผ์ q๋ฅผ ์ป๊ณ Loss function์ ๊ณ์ฐํ ์ ์๋ค.
Logistic Regression ์ ํ ํ๊ท์์๋ ๋ชจ๋ธ์ ์ ๋ ฅ ๋ณ์์ ๊ฐ์ค์น๋ฅผ ๊ณฑํ์ฌ ์์ธก๊ฐ์ ๊ตฌํ๋ค. ์ด ์์ธก๊ฐ์ ์ ๊ทธ๋ฆผ์์ $l$ ๋ก ํํ๋์๊ณ ์ด $l$ ์ logit ๊ณผ ๊ฐ๋ค๊ณ ์์ ์ธ์ด๋ค.
์ฆ, $l=b+x_{1}w_{1}+x_{2}w_{2}+x_{3}w_{3}=\mathrm{log}\frac{q}{1-q}$ ์ด๋ค.
์ฌ๊ธฐ์์ ์ด๊ธธ ํ๋ฅ ์ธ $q$ ๊ฐ์ ๊ตฌํ๊ธฐ ์ํด์ logit ํจ์์ ์ญํจ์์ธ Sigmoid ํจ์๋ฅผ ์ฌ์ฉํ๋ค.
Sigmoid ํจ์๋ ๋ค์๊ณผ ๊ฐ๋ค.
$$\mathrm{Sigmoid}(x)=\frac{1}{1+e^{-x}}$$
์ด Sigmoid ํจ์์ logit ($l$)๊ฐ์ ๋์ ํ๋ฉด $q$ ๊ฐ์ ์ป์ด๋ผ ์ ์๋ค.
์ด๋ ๊ฒ ์ป์ $q$ ๋ฅผ ํตํด Binary cross entropy (BCE) Loss ํจ์๋ฅผ ๋ง๋ ๋ค.
$$L=-\sum_{n}log(q_{n}^{y_{n}}(1-q_{n})^{1-y_{n}})$$
Loss๋ฅผ weights ์ ๋ํด์ ํธ๋ฏธ๋ถํ์ฌ Gradient descent๋ฅผ ํตํด ๋ฐ๋ ๋ฐฉํฅ์ผ๋ก ๋์๊ฐ๋ฉด ๋์ด๋ค.
์ด๊ฒ์ Logistic regression ์ด๋ผ๊ณ ํ๋ค.
'AI\ML\DL > Deep learning theory' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
Batch Normalization (0) 2023.05.11 ์ด์ง๋ถ๋ฅ์์ Maximum Likelihood Estimation (MLE) (1) 2023.05.10 Backpropagation (0) 2023.05.07 Momentum, RMSProp Optimizer (0) 2023.05.06