Week 2 ํ•™์Šต ์ •๋ฆฌ

Week 3 ํ•™์Šต ์ •๋ฆฌ

Day 1 (๋จธ์‹  ๋Ÿฌ๋‹ ๋ผ์ดํ”„์‚ฌ์ดํด)

์ „๋ฐ˜์ ์ธ ๋‚ด์šฉ

  1. ๋จธ์‹  ๋Ÿฌ๋‹์˜ ๊ฐœ๋…๊ณผ ์ ์šฉ ์‚ฌ๋ก€, ํ•™์Šต์˜ ์ข…๋ฅ˜๋ฅผ ์„ค๋ช…ํ•œ ํ›„, ๋จธ์‹  ๋Ÿฌ๋‹ ๋ผ์ดํ”„์‚ฌ์ดํด์˜ ๊ฐ ๋‹จ๊ณ„์— ๋Œ€ํ•ด ์ž์„ธํžˆ ์„ค๋ช…ํ•ฉ๋‹ˆ๋‹ค. ๊ฐ ๋‹จ๊ณ„๋Š” ๊ณ„ํš, ๋ฐ์ดํ„ฐ ์ค€๋น„, ๋ชจ๋ธ ์—”์ง€๋‹ˆ์–ด๋ง, ๋ชจ๋ธ ํ‰๊ฐ€, ๋ชจ๋ธ ๋ฐฐํฌ ๋ฐ ๋ชจ๋‹ˆํ„ฐ๋ง๊ณผ ์œ ์ง€ ๊ด€๋ฆฌ๋กœ ๋‚˜๋‰ฉ๋‹ˆ๋‹ค. ๋˜ํ•œ, ๋จธ์‹  ๋Ÿฌ๋‹ ํ”„๋กœ์ ํŠธ๋ฅผ ํšจ๊ณผ์ ์œผ๋กœ ์ˆ˜ํ–‰ํ•˜๊ธฐ ์œ„ํ•œ ํ”„๋กœ์„ธ์Šค์™€ ๊ฐ ๋‹จ๊ณ„์˜ ์ค‘์š”์„ฑ์— ๋Œ€ํ•ด ๋‹ค๋ฃน๋‹ˆ๋‹ค.

1. ์ฃผ์š” ๋‚ด์šฉ

Day 2 (์„ ํ˜• ๋Œ€์ˆ˜)

์ „๋ฐ˜์ ์ธ ๋‚ด์šฉ

  1. ํšŒ๊ท€ ๋ถ„์„์˜ ๊ฐœ๋…๊ณผ ์„ ํ˜• ํšŒ๊ท€ ๋ฐฉ์ •์‹, ๊ทธ๋ฆฌ๊ณ  ์ตœ์†Œ ์ œ๊ณฑ๋ฒ•(OLS) ๋“ฑ์˜ ํ†ต๊ณ„์  ๋ฐฉ๋ฒ•์„ ์„ค๋ช…ํ•ฉ๋‹ˆ๋‹ค. ๋˜ํ•œ, ๋‹ค์ค‘ ์„ ํ˜• ํšŒ๊ท€์™€ ๋ชจ๋ธ ํ‰๊ฐ€ ์ง€ํ‘œ์— ๋Œ€ํ•ด์„œ๋„ ๋‹ค๋ฃจ๋ฉฐ, ์ด์–ด์„œ ์ตœ๊ทผ์ ‘ ์ด์›ƒ ๋ถ„๋ฅ˜๊ธฐ์˜ ๊ธฐ๋ณธ ๊ฐœ๋…๊ณผ ๊ตฌํ˜„ ๋ฐฉ๋ฒ•, ๊ทธ๋ฆฌ๊ณ  ์ด๋ก ์  ํ•œ๊ณ„์ ์— ๋Œ€ํ•ด ๋…ผ์˜ํ•ฉ๋‹ˆ๋‹ค.
  2. Linear Classifier์˜ ์ •์˜์™€ ๋งค๊ฐœ๋ณ€์ˆ˜์  ์ ‘๊ทผ ๋ฐฉ์‹, ๊ทธ๋ฆฌ๊ณ  Softmax Classifier์˜ ํ•„์š”์„ฑ๊ณผ ์ด๋ฅผ ๊ตฌํ˜„ํ•˜๊ธฐ ์œ„ํ•œ ๋ฐฉ๋ฒ•๋ก ์„ ๋‹ค๋ฃน๋‹ˆ๋‹ค. ๋˜ํ•œ, ์†์‹ค ํ•จ์ˆ˜์™€ ์ตœ์ ํ™” ๋ฐฉ๋ฒ•์— ๋Œ€ํ•ด ์„ค๋ช…ํ•˜๋ฉฐ, ๋ชจ๋ธ์˜ ํ•™์Šต ๊ณผ์ •์—์„œ ๋ฐœ์ƒํ•  ์ˆ˜ ์žˆ๋Š” ๋‹ค์–‘ํ•œ ๋ฌธ์ œ์ ๊ณผ ๊ทธ ํ•ด๊ฒฐ ๋ฐฉ์•ˆ์— ๋Œ€ํ•ด ๋…ผ์˜ํ•ฉ๋‹ˆ๋‹ค.

1. ์ฃผ์š” ๋‚ด์šฉ

2. ์ฃผ์š” ๋‚ด์šฉ

image.png

Day 3 (๊ธฐ์ดˆ ์‹ ๊ฒฝ๋ง ์ด๋ก )

์ „๋ฐ˜์ ์ธ ๋‚ด์šฉ

  1. Linear Model์˜ ๊ฐœ๋…๊ณผ ํ•œ๊ณ„๋ฅผ ์„ค๋ช…ํ•œ ํ›„, ์‹ ๊ฒฝ๋ง์˜ ๊ธฐ์ดˆ์ธ ํผ์…‰ํŠธ๋ก (Perceptron)๊ณผ ๋‹จ์ธต ๋ฐ ๋‹ค์ธต ์‹ ๊ฒฝ๋ง์˜ ๊ตฌ์กฐ๋ฅผ ์„ค๋ช…ํ•ฉ๋‹ˆ๋‹ค. ๋˜ํ•œ, ํ™œ์„ฑํ™” ํ•จ์ˆ˜(Activation Functions)์™€ ์‹ ๊ฒฝ๋ง์˜ ํ•™์Šต ๊ณผ์ •์—์„œ ๋ฐœ์ƒํ•˜๋Š” ๊ทธ๋ž˜๋””์–ธํŠธ ๊ณ„์‚ฐ ๋ฐฉ๋ฒ•์— ๋Œ€ํ•ด ๋‹ค๋ฃน๋‹ˆ๋‹ค.
  2. ์—ญ์ „ํŒŒ ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ์„ค๋ช…ํ•˜๋ฉฐ, ์ด๋ฅผ ํ†ตํ•ด ์‹ ๊ฒฝ๋ง์˜ ๊ฐ€์ค‘์น˜๋ฅผ ํšจ์œจ์ ์œผ๋กœ ์—…๋ฐ์ดํŠธํ•˜๋Š” ๋ฐฉ๋ฒ•์„ ๋‹ค๋ฃน๋‹ˆ๋‹ค. ๋˜ํ•œ, ์—ฐ์‡„ ๋ฒ•์น™(Chain Rule)์„ ํ†ตํ•ด ๊ทธ๋ž˜๋””์–ธํŠธ ๊ณ„์‚ฐ ๊ณผ์ •์„ ์„ค๋ช…ํ•˜๊ณ , ๋กœ์ง€์Šคํ‹ฑ ํšŒ๊ท€(Logistic Regression) ์˜ˆ์ œ๋ฅผ ํ†ตํ•ด ์‹ค์ œ ๊ณ„์‚ฐ ๊ณผ์ •์„ ๋ณด์—ฌ์ค๋‹ˆ๋‹ค.
  3. ์‹ ๊ฒฝ๋ง ํ›ˆ๋ จ์—์„œ ์ค‘์š”ํ•œ ์š”์†Œ๋“ค์„ ์†Œ๊ฐœํ•ฉ๋‹ˆ๋‹ค. ๋จผ์ €, ๋‹ค์–‘ํ•œ ํ™œ์„ฑํ™” ํ•จ์ˆ˜์˜ ํŠน์ง•๊ณผ ๋‹จ์ ์— ๋Œ€ํ•ด ์„ค๋ช…ํ•˜๊ณ , ์ด์–ด์„œ ๊ฐ€์ค‘์น˜ ์ดˆ๊ธฐํ™” ๋ฐฉ๋ฒ•์˜ ์ค‘์š”์„ฑ์„ ๋‹ค๋ฃน๋‹ˆ๋‹ค. ๋งˆ์ง€๋ง‰์œผ๋กœ, ํ•™์Šต๋ฅ  ์กฐ์ • ๋ฐฉ๋ฒ•์— ๋Œ€ํ•ด ์„ค๋ช…ํ•˜๋ฉฐ, ๊ฐ ๋ฐฉ๋ฒ•์ด ํ›ˆ๋ จ ๊ณผ์ •์— ์–ด๋–ค ์˜ํ–ฅ์„ ๋ฏธ์น˜๋Š”์ง€์— ๋Œ€ํ•ด ๋…ผ์˜ํ•ฉ๋‹ˆ๋‹ค.
  4. ์‹ ๊ฒฝ๋ง ํ›ˆ๋ จ์—์„œ ํ•„์ˆ˜์ ์ธ ๋ฐ์ดํ„ฐ ์ „์ฒ˜๋ฆฌ(Data Preprocessing)์™€ ๋ฐ์ดํ„ฐ ์ฆ๊ฐ•(Data Augmentation) ๊ธฐ๋ฒ•์„ ์†Œ๊ฐœํ•ฉ๋‹ˆ๋‹ค. Zero-centering, PCA & Whitening, Data Augmentation์˜ ํ•„์š”์„ฑ๊ณผ ๋‹ค์–‘ํ•œ ๊ตฌํ˜„ ๋ฐฉ๋ฒ•๋“ค์ด ๋…ผ์˜๋ฉ๋‹ˆ๋‹ค. ๋˜ํ•œ, ์ด๋ฏธ์ง€ ์ฒ˜๋ฆฌ์—์„œ ํ”ํžˆ ์‚ฌ์šฉ๋˜๋Š” ๋ฐ์ดํ„ฐ ์ฆ๊ฐ• ๊ธฐ๋ฒ•๋“ค์„ ์˜ˆ์‹œ์™€ ํ•จ๊ป˜ ์„ค๋ช…ํ•ฉ๋‹ˆ๋‹ค.

1. ์ฃผ์š” ๋‚ด์šฉ

2. ์ฃผ์š” ๋‚ด์šฉ

3. ์ฃผ์š” ๋‚ด์šฉ

4. ์ฃผ์š” ๋‚ด์šฉ

Day 4 (Transformer)

์ „๋ฐ˜์ ์ธ ๋‚ด์šฉ

  1. RNN์˜ ๊ธฐ์šธ๊ธฐ ์†Œ์‹ค/ํญ๋ฐœ ๋ฌธ์ œ์™€ ์ด๋ฅผ ํ•ด๊ฒฐํ•˜๊ธฐ ์œ„ํ•œ LSTM๊ณผ GRU๋ฅผ ์†Œ๊ฐœํ•ฉ๋‹ˆ๋‹ค. ๋˜ํ•œ, Seq2seq ๋ชจ๋ธ์˜ ๊ฐœ๋…๊ณผ ๊ตฌ์กฐ, ๊ทธ๋ฆฌ๊ณ  ์‹ค์ œ ๊ตฌํ˜„ ๋ฐฉ๋ฒ•์„ ๋‹ค๋ฃจ๋ฉฐ, ํŠนํžˆ ๊ธฐ๊ณ„ ๋ฒˆ์—ญ(Machine Translation)๊ณผ ๊ฐ™์€ NLP(Natural Language Processing) ์ž‘์—…์— ์ ์šฉ๋˜๋Š” ๋ฐฉ์‹์„ ์„ค๋ช…ํ•ฉ๋‹ˆ๋‹ค.
  2. RNN ๋ชจ๋ธ์˜ ํ•œ๊ณ„์™€ ์ด๋ฅผ ํ•ด๊ฒฐํ•˜๊ธฐ ์œ„ํ•œ Attention ๋ฉ”์ปค๋‹ˆ์ฆ˜์„ ์„ค๋ช…ํ•˜๊ณ , Transformer ๋ชจ๋ธ์˜ ์ฃผ์š” ์•„์ด๋””์–ด์™€ ๊ตฌ์กฐ๋ฅผ ๋‹ค๋ฃน๋‹ˆ๋‹ค. ํŠนํžˆ, Attention์˜ ์—ญํ• ๊ณผ ์ค‘์š”์„ฑ, ๋‹ค์–‘ํ•œ ๋ณ€ํ˜• ๊ธฐ๋ฒ•๋“ค์— ๋Œ€ํ•ด ๊ตฌ์ฒด์ ์œผ๋กœ ์„ค๋ช…ํ•˜๋ฉฐ, ์ด๋ฅผ ํ†ตํ•œ ์„ฑ๋Šฅ ํ–ฅ์ƒ ๋ฐฉ๋ฒ•์„ ์ œ์‹œํ•ฉ๋‹ˆ๋‹ค.
  3. Transformer ๋ชจ๋ธ์˜ ํ•™์Šต ๊ณผ์ •, ํ† ํฐ ์ง‘๊ณ„ ๋ฐฉ๋ฒ•, Encoder-Decoder ๊ตฌ์กฐ๋ฅผ ์„ค๋ช…ํ•˜๊ณ , ์ด์–ด์„œ BERT์™€ Vision Transformer์˜ ์›๋ฆฌ์™€ ํ™œ์šฉ ๋ฐฉ๋ฒ•์„ ๋‹ค๋ฃน๋‹ˆ๋‹ค. ํŠนํžˆ, Self-Attention ๋ฉ”์ปค๋‹ˆ์ฆ˜๊ณผ Multi-head Attention์˜ ๊ฐœ๋…์„ ์ค‘์‹ฌ์œผ๋กœ ์„ค๋ช…ํ•˜๋ฉฐ, ๋ชจ๋ธ ํ•™์Šต์˜ ๊ตฌ์ฒด์ ์ธ ๋ฐฉ๋ฒ•๊ณผ ์‹คํ—˜ ๊ฒฐ๊ณผ๋ฅผ ํฌํ•จํ•ฉ๋‹ˆ๋‹ค.

1. ์ฃผ์š” ๋‚ด์šฉ

2. ์ฃผ์š” ๋‚ด์šฉ

3. ์ฃผ์š” ๋‚ด์šฉ

Day 5

์›”์šœ์—โ€ฆ