728x90
๋ฐ˜์‘ํ˜•

self attention 1

[ ํฌ์Šคํ… ์ธ๊ณต์ง€๋Šฅ์—ฐ๊ตฌ์› ์—ฐ๊ตฌ์ธํ„ด ]Attention Is all You Need ๋…ผ๋ฌธ ๋ฆฌ๋ทฐ์™€ ์„ค๋ช…

2017๋…„ ๊ฒจ์šธ์— ๋‚˜์˜จ ๋…ผ๋ฌธ์œผ๋กœ NIPS์— ๋“ฑ์žฌ๋œ, ๊ธฐ๊ณ„๋ฒˆ์—ญ์„ ๊ณต๋ถ€ํ•œ๋‹ค๋ฉด ๊ณต๋ถ€ํ–ˆ์„ ๋…ผ๋ฌธ์ด๋‹ค. ํ•™๋ถ€์ƒ ์ธํ„ด ๋•Œ๋„ ๊ณต๋ถ€ํ•˜๋ ค๋‹ค๊ฐ€ ์–ด์˜๋ถ€์˜ ๋„˜์–ด๊ฐ”๋˜ ๋…ผ๋ฌธ,, ๋“œ๋””์–ด ๊ฐ ์žก๊ณ  ๊ณต๋ถ€ํ•˜์—ฌ ์ •๋ฆฌํ–ˆ๋‹ค. ์ž…๋ ฅ ๋ฌธ์žฅ์„ ํ•˜๋‚˜์˜ ๋ฒกํ„ฐ๋กœ ์••์ถ•ํ•˜๋Š” ๊ณผ์ •์—†์ด, RNN๊ณผ CNN ๊ตฌ์กฐ๋ฅผ ํ™œ์šฉํ•˜์ง€๋„ ์•Š๊ณ  ์˜ค์ง Attention ๊ธฐ๋ฒ•์„ ์ ์šฉํ•œ Encoder, Decoder๋ฅผ ๋ฐ˜๋ณตํ•˜์˜€๋‹ค. ์ด๋ฅผ ํ†ตํ•ด ์—ฐ์‚ฐ๋Ÿ‰์„ ์ค„์ด๊ณ , ์„ฑ๋Šฅ ์—ญ์‹œ ๊ฐœ์„ ์‹œํ‚จ Transformer์— ๋Œ€ํ•œ ๋…ผ๋ฌธ์ด๋‹ค. ๋ชจ๋ธ ์•„ํ‚คํ…์ฒ˜๋Š” ์œ„ ์‚ฌ์ง„๊ณผ ๊ฐ™๋‹ค. ๊ฐ€์žฅ ๋จผ์ € ์ขŒ์ธก๊ณผ ์šฐ์ธก์— ๊ฐ๊ฐ N๋ฒˆ์”ฉ ๋ฐ˜๋ณต๋˜๋Š” ์ธ์ฝ”๋”์™€ ๋””์ฝ”๋” ๊ตฌ์กฐ๊ฐ€ ๋ˆˆ์— ๋ˆ๋‹ค. ๊ทธ๋ฆผ์—์„œ๋„ ํ™•์ธํ•  ์ˆ˜ ์žˆ๋“ฏ์ด Transformer ๊ตฌ์กฐ์˜ ํ•ต์‹ฌ์€ ๋‹ค์Œ๊ณผ ๊ฐ™์ด ์ •๋ฆฌ๋œ๋‹ค. Positional Encoding Encoder Self-Att..

728x90
๋ฐ˜์‘ํ˜•