[Ch3] ์„ ํ˜•ํšŒ๊ท€๋ถ„์„

3.1 ์„ ํ˜•ํšŒ๊ท€๋ถ„์„ ์„ ํ˜•ํšŒ๊ท€๋ถ„์„ : ์ฃผ์–ด์ง„ ๋ฐ์ดํ„ฐ๋ฅผ ๊ฐ€์žฅ ์ž˜ ์„ค๋ช…ํ•˜๋Š” ์ง์„ ์„ ์ฐพ๋Š” ๊ฒƒ ๋‹จ์ˆœ์„ ํ˜•ํšŒ๊ท€(Simple Linear Regression) : ํ•˜๋‚˜์˜ ๋…๋ฆฝ๋ณ€์ˆ˜์— ๋Œ€ํ•œ ์„ ํ˜•ํšŒ๊ท€ = x, y ๋ผ๋Š” ๋ฐ์ดํ„ฐ๊ฐ€ ์ฃผ์–ด์กŒ์„ ๋•Œ, y = w*x + b ์—์„œ ๋ฐ์ดํ„ฐ๋ฅผ ๊ฐ€์žฅ ์ž˜ ํ‘œํ˜„ํ•  ์ˆ˜ ์žˆ๋Š” ๊ฐ€์ค‘์น˜ w์™€ ํŽธ์ฐจ b๋ฅผ ์ฐพ๋Š” ๊ฒƒ ๋‹ค์ค‘์„ ํ˜•ํšŒ๊ท€(Multivariate Linear Regression) : ์—ฌ๋Ÿฌ ๊ฐœ์˜ ๋…๋ฆฝ๋ณ€์ˆ˜์— ๋Œ€ํ•œ ์„ ํ˜•ํšŒ๊ท€ 3.2 ์†์‹ค ํ•จ์ˆ˜ ๋ฐ ๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ• 1) ์†์‹คํ•จ์ˆ˜(loss function) ex) ํ‰๊ท ์ œ๊ณฑ์˜ค์ฐจ(MSE) : ์˜ˆ์ธก๊ฐ’๊ณผ ์‹ค์ œ๊ฐ’์˜ ์ฐจ์ด๋ฅผ ์ œ๊ณฑ(L2 loss)ํ•˜์—ฌ ํ‰๊ท ํ•œ ๊ฒƒ 2) ๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•(gradient descent) : w_(t+1) = w_t - gradient * learning rat..

DL/Pytorch 2022. 1. 15. 19:44
๊ณต์ง€์‚ฌํ•ญ