[DS] MLP

1. Perceptron 1) ์ธ๊ณต์‹ ๊ฒฝ๋ง : ๊ธฐ๊ณ„ํ•™์Šต๊ณผ ์ธ์ง€๊ณผํ•™์—์„œ ์ƒ๋ฌผํ•™์˜ ์‹ ๊ฒฝ๋ง์—์„œ ์˜๊ฐ์„ ์–ป์€ ํ†ต๊ณ„ํ•™์  ํ•™์Šต ์•Œ๊ณ ๋ฆฌ์ฆ˜ 2) ํผ์…‰ํŠธ๋ก  : ํ”„๋ž‘ํฌ ๋กœ์  ๋ธ”๋ผํŠธ๊ฐ€ 1957๋…„์— ์ œ์•ˆํ•œ ์ดˆ๊ธฐ ํ˜•ํƒœ์˜ ์ธ๊ณต์‹ ๊ฒฝ๋ง (1) ํ˜•ํƒœ : ์ž…๋ ฅ๊ฐ’- ๊ฐ€์ค‘์น˜ - ๊ฐ€์ค‘ํ•ฉ - ๊ณ„๋‹จํ•จ์ˆ˜(ํ™œ์„ฑํ™”ํ•จ์ˆ˜) - ์ถœ๋ ฅ๊ฐ’ โ‘  Inputs โ‘ก Weights - ๊ฐ ์ž…๋ ฅ๊ฐ’์— ๋Œ€ํ•œ ๊ฐ€์ค‘์น˜ ์กด์žฌ - ๊ฐ€์ค‘์น˜ ๊ฐ’์ด ํด์ˆ˜๋ก ํ•ด๋‹น ์ž…๋ ฅ๊ฐ’์ด ์ค‘์š”ํ•˜๋‹ค๋Š” ์˜๋ฏธ โ‘ข Weighted Sum - ๊ฐ€์ค‘ํ•ฉ(net) : ๊ฐ ์ž…๋ ฅ๊ณผ ๊ทธ์— ํ•ด๋‹นํ•˜๋Š” ๊ฐ€์ค‘์น˜์˜ ๊ณฑ์˜ ํ•ฉ โ‘ฃ Activation Function - Activation Function : net ๊ฐ’์— ๋”ฐ๋ผ ๋‰ด๋Ÿฐ์˜ ํ™œ์„ฑํ™” ์—ฌ๋ถ€๋ฅผ ๊ฒฐ์ •ํ•˜๋Š” ํ•จ์ˆ˜ - ReLU : net ์ด threshold ๋ณด๋‹ค ํฌ๋ฉด 1, ํฌ์ง€ ์•Š์œผ๋ฉด 0์„ ..

Data/Science 2022. 1. 28. 12:03
๊ณต์ง€์‚ฌํ•ญ