<๊ธฐ๊ณํ์ต์ ์ ์>
์ธ๊ณต์ง๋ฅ์ ํ ๋ถ์ผ. ์ธ๊ณต์ง๋ฅ์๋ ๊ธฐ๊ณํ์ต, ์ปดํจํฐ ๋น์ , ์์ธ์ด์ฒ๋ฆฌ, ๋ก๋ณดํฑ์ค ๋ฑ์ด ํฌํจ๋จ. ๋ฐ์ดํฐ๋ก๋ถํฐ ์ค์ค๋ก ๋ฐ์ ํ๋ ์๊ณ ๋ฆฌ์ฆ์ ๋ค๋ฃจ๋ ํ๋ฌธ. ๋ฅ๋ฌ๋์ ๊ธฐ๊ณํ์ต ์ค ์ ๊ฒฝ๋ง ์ค layer๊ฐ ๋ง์ ์ ๊ฒฝ๋ง์ ์ฐ๋ ๋ถ์ผ.
<๋จธ์ ๋ฌ๋์ ์ ์ : T, P, E>
T = Task : ๊ธฐ๊ณํ์ต์ผ๋ก ๋ฌด์์ ํ ๊ฒ์ธ์ง
P = Performance measure : ์ฑ๋ฅ์งํ๋๋ก ํ๊ฐํจ. ์ด๋ค ์ฑ๋ฅ์งํ ์ฌ์ฉํ ๊ฒ์ธ์ง.
E = Experience -> ๋ฐ์ดํฐ๋ฅผ ๋งํจ. ์ด๋ค ๋ฐ์ดํฐ๋ฅผ ์ฌ์ฉํ ๊ฒ์ธ์ง.
๊ธฐ๊ณํ์ต์ ๊ฐ์ฅ ์ค์ํ ๊ฐ๋ ๊ณผ ๋ชฉํ๋ ์ผ๋ฐํ.
์ฌ๋ฌ๊ฐ์ง๋ฅผ ๋ณด๊ณ ์ ์ฌ์ฑ์ ์ฐพ์๋ด์ด ํ๋์ ํ๋กํ ํ์ ์ ๋ง๋ค๊ณ ์ผ๋ฐํ๋ฅผ ํจ. ์ถ์ํ ๊ณผ์ . ์ด๊ฒ์ด ๋ ๋ฐ์ ํด์ Generative algorithem์ด ๋จ.
<No Free Lunch Theorem for ML>
Task์ ๋ฐ๋ผ ํ์ต ์๊ณ ๋ฆฌ์ฆ์ด ๋ฌ๋ผ์ง๋ค. ๊ทธ๋์ ํ๋์ ์๊ณ ๋ฆฌ์ฆ์ด ๋ชจ๋ ๊ฒฝ์ฐ์ ๋ค ์ข์ ์ ์๋ค.
<ํ์ต์ ์ข ๋ฅ>
1. ์ง๋ํ์ต(supervised learning)
2. ๋น์ง๋ํ์ต(unsupervised learning)
3. ์ค์ง๋ํ์ต(semi-supervised learning)
4. ๊ฐํํ์ต(reinforcement learnig)
[์ง๋ํ์ต]
- input & output ์์ ๋ง๋ค์ด์ ํ์ต๋ฐ์ดํฐ๋ก ๋ง๋ค์ด ๊ธฐ๊ณํ์ต ์๊ณ ๋ฆฌ์ฆ์ ํ์ต์ํด.
- classification ๊ณผ regression. regression์ y๋ ์ค์, x๋ ๋ฒกํฐ๋ฅผ ์ด๋ฃธ.
[๋น์ง๋ํ์ต]
-ํ์ต๋ฐ์ดํฐ๊ฐ x๋ก๋ง ์ด๋ฃจ์ด์ ธ์์.
-ํด๋ฌ์คํฐ๋ง, ์ด์์น ํ์ง, ํ๋ฅ ๋ฐ๋ ์ถ์
[์ค์ง๋ํ์ต]
- LU learning: x,y ์์ ์ฃผ๋ ๊ฒ๋ ์๊ณ , labeling ๋์ง ์์, x๋ง ์๋ ๋ฐ์ดํฐ๋ฅผ ์ฃผ๋ ๊ฒ๋ ์์.
- PU learning: ํน์ class์ ๋ํด์๋ง data๋ฅผ ์ฃผ๋ ๊ฒ
- ์๋ ๊ทธ๋ฆผ๊ณผ ๊ฐ์ด unlabeled๋ data๋ฅผ classificationํ๋๋ฐ ๋์์ ์ค.
[๊ฐํํ์ต]
- Agent์ environment๊ฐ ์ํธ์์ฉํ๋ฉด์ ํผ๋๋ฐฑ์ ์ฃผ๊ณ ๋ฐ์. ํ๊ฒฝ์ ์ํ state๋ฅผ ๋ฐ๊ณ reward๋ฅผ ๋ฐ์. ์๊ณ ๋ฆฌ์ฆ์ด ๋ํ ์ผ์ ํ๋จ. ๋ณดํต state ๋ณํ๊ฐ ์๊ณ reward๋ ๋๋ฆฌ๊ฒ ์ด. ์ฌ๋ฌ๋ฒ ๊ณผ์ ์ด ๋ฐ๋ณต๋์ด์ผ reward๊ฐ ์ค๋ ๊ฒฝ์ฐ๊ฐ ๋ง๊ธฐ ๋๋ฌธ์ ๋ค๋ฅธ ์๊ณ ๋ฆฌ์ฆ๋ณด๋ค ํ์ตํ๋๋ฐ ๊ฑธ๋ฆฌ๋ ์๊ฐ ๋ฐ ๋์ด๋๊ฐ ํจ์ฌ ๋๋ค.
'LG Aimers' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[Machine Learning] Bias & Variance (0) | 2024.01.30 |
---|