[Ch3] ์ ํํ๊ท๋ถ์
3.1 ์ ํํ๊ท๋ถ์ ์ ํํ๊ท๋ถ์ : ์ฃผ์ด์ง ๋ฐ์ดํฐ๋ฅผ ๊ฐ์ฅ ์ ์ค๋ช ํ๋ ์ง์ ์ ์ฐพ๋ ๊ฒ ๋จ์์ ํํ๊ท(Simple Linear Regression) : ํ๋์ ๋ ๋ฆฝ๋ณ์์ ๋ํ ์ ํํ๊ท = x, y ๋ผ๋ ๋ฐ์ดํฐ๊ฐ ์ฃผ์ด์ก์ ๋, y = w*x + b ์์ ๋ฐ์ดํฐ๋ฅผ ๊ฐ์ฅ ์ ํํํ ์ ์๋ ๊ฐ์ค์น w์ ํธ์ฐจ b๋ฅผ ์ฐพ๋ ๊ฒ ๋ค์ค์ ํํ๊ท(Multivariate Linear Regression) : ์ฌ๋ฌ ๊ฐ์ ๋ ๋ฆฝ๋ณ์์ ๋ํ ์ ํํ๊ท 3.2 ์์ค ํจ์ ๋ฐ ๊ฒฝ์ฌํ๊ฐ๋ฒ 1) ์์คํจ์(loss function) ex) ํ๊ท ์ ๊ณฑ์ค์ฐจ(MSE) : ์์ธก๊ฐ๊ณผ ์ค์ ๊ฐ์ ์ฐจ์ด๋ฅผ ์ ๊ณฑ(L2 loss)ํ์ฌ ํ๊ท ํ ๊ฒ 2) ๊ฒฝ์ฌํ๊ฐ๋ฒ(gradient descent) : w_(t+1) = w_t - gradient * learning rat..
DL/Pytorch
2022. 1. 15. 19:44
๊ณต์ง์ฌํญ