skill/Etc

ChatGPT ๋“ฑ์žฅ ๋ฐฐ๊ฒฝ ๋ฐ LLM ์ดํ•ด ์ •๋ฆฌ

have a nice day :D 2026. 1. 20. 18:39
๋ฐ˜์‘ํ˜•

๐Ÿ“‘ ๋ชฉ์ฐจ

  1. ChatGPT ๋“ฑ์žฅ ๋ฐฐ๊ฒฝ (AI ๋ฐœ์ „ ํ๋ฆ„)
    • 1-1. ๊ทœ์น™ ๊ธฐ๋ฐ˜ ์ธ๊ณต์ง€๋Šฅ (1950๋…„๋Œ€)
    • 1-2. ๋จธ์‹ ๋Ÿฌ๋‹์˜ ๋“ฑ์žฅ (1980๋…„๋Œ€)
    • 1-3. ๋”ฅ๋Ÿฌ๋‹์˜ ๋ฐœ์ „ (2010๋…„๋Œ€)
    • 1-4. ํŠธ๋žœ์Šคํฌ๋จธ ๋ชจ๋ธ ๋“ฑ์žฅ (2017๋…„)
    • 1-5. ChatGPT์˜ ๋“ฑ์žฅ (2022๋…„)
  2. LLM์˜ ์ดํ•ด
    • 2-1. ๋จธ์‹ ๋Ÿฌ๋‹ (Machine Learning)
    • 2-2. ๋”ฅ๋Ÿฌ๋‹ (Deep Learning)
    • 2-3. ์–ธ์–ด ๋ชจ๋ธ (Language Model)
    • 2-4. LLM์˜ ์ •์˜์™€ ๊ตฌ์กฐ (Large Language Model)
    • 2-5. LLM์˜ ์–ธ์–ด ์ดํ•ด ๋ฐฉ์‹
    • 2-6. LLM์˜ ํ…์ŠคํŠธ ์ƒ์„ฑ ๋ฐฉ์‹
    • 2-7. LLM์˜ ํ•œ๊ณ„: ํ…์ŠคํŠธ ๊ธธ์ด ์ œํ•œ
  3. LLM์˜ ํ•™์Šต ์›๋ฆฌ
    • 3-1. ๋ชจ๋ธ์„ ์—…๋ฐ์ดํŠธํ•˜๋Š” ๋ฐฉ๋ฒ•
    • 3-2. ๋ชจ๋ธ ์—…๋ฐ์ดํŠธ ์—†์ด LLM์„ ํ™œ์šฉํ•˜๋Š” ๋ฐฉ๋ฒ•
    • 3-3. ํ•™์Šต๋˜์ง€ ์•Š์€ ๋ฐ์ดํ„ฐ์— ๋Œ€ํ•œ ๋Œ€์‘
    • 3-4. ์ถ”๋ก  ๊ธฐ๋ฒ•๊ณผ Reasoning ๋ฐฉ์‹
    • 3-5. ์†Œํ˜• LLM (sLLM)
    • 3-6. ๋ฉ€ํ‹ฐ๋ชจ๋‹ฌ ๋ชจ๋ธ (Multimodal Model)

1. ChatGPT ๋“ฑ์žฅ ๋ฐฐ๊ฒฝ (AI ๋ฐœ์ „ ํ๋ฆ„)

1-1. ๊ทœ์น™ ๊ธฐ๋ฐ˜ ์ธ๊ณต์ง€๋Šฅ (1950๋…„๋Œ€)

  • ์‚ฌ๋žŒ์ด ๋ชจ๋“  ๊ทœ์น™์„ ์ง์ ‘ ์ •์˜
  • ๋…ผ๋ฆฌ ์˜ˆ์‹œ: A = B, B = C → A = C
  • ์žฅ์ : ๋ช…ํ™•ํ•œ ๋…ผ๋ฆฌ
  • ํ•œ๊ณ„: ๊ทœ์น™ ํญ์ฆ, ์˜ˆ์™ธ ์ฒ˜๋ฆฌ ๋ถˆ๊ฐ€

1-2. ๋จธ์‹ ๋Ÿฌ๋‹์˜ ๋“ฑ์žฅ (1980๋…„๋Œ€)

  • ๋ฐ์ดํ„ฐ๋กœ ๊ทœ์น™์„ ํ•™์Šต
  • ํ†ต๊ณ„·ํ™•๋ฅ  ๊ธฐ๋ฐ˜ ๋ชจ๋ธ
  • ํ•œ๊ณ„: ํŠน์ง•(feature)์€ ์‚ฌ๋žŒ์ด ์„ค๊ณ„

1-3. ๋”ฅ๋Ÿฌ๋‹์˜ ๋ฐœ์ „ (2010๋…„๋Œ€)

  • ๋‹ค์ธต ์‹ ๊ฒฝ๋ง ๊ธฐ๋ฐ˜
  • ํŠน์ง• ์ž๋™ ์ถ”์ถœ
  • ์ด๋ฏธ์ง€·์Œ์„ฑ ์ธ์‹์—์„œ ํ˜์‹ 

1-4. ํŠธ๋žœ์Šคํฌ๋จธ ๋ชจ๋ธ ๋“ฑ์žฅ (2017๋…„)

  • Attention ๊ธฐ๋ฐ˜ ๋ฌธ๋งฅ ๋™์‹œ ์ฒ˜๋ฆฌ
  • NLP ์„ฑ๋Šฅ ๋„์•ฝ

1-5. ChatGPT์˜ ๋“ฑ์žฅ (2022๋…„)

  • GPT ๊ธฐ๋ฐ˜ ๋Œ€๊ทœ๋ชจ ์–ธ์–ด ๋ชจ๋ธ
  • ์ž์—ฐ์Šค๋Ÿฌ์šด ๋Œ€ํ™” ๋ฐ API ์ƒํƒœ๊ณ„ ํ™•์‚ฐ

2. LLM์˜ ์ดํ•ด

2-1. ๋จธ์‹ ๋Ÿฌ๋‹ (Machine Learning)

  • ๋ฐ์ดํ„ฐ ๊ธฐ๋ฐ˜ ํŒจํ„ด ํ•™์Šต ๋ฐ ์˜ˆ์ธก

2-2. ๋”ฅ๋Ÿฌ๋‹ (Deep Learning)

  • ๋‹ค์ธต ์‹ ๊ฒฝ๋ง์„ ํ†ตํ•œ ํŠน์ง• ์ž๋™ ํ•™์Šต

2-3. ์–ธ์–ด ๋ชจ๋ธ (Language Model)

  • ๋‹ค์Œ ๋‹จ์–ด์˜ ํ™•๋ฅ ์„ ์˜ˆ์ธกํ•˜์—ฌ ๋ฌธ์žฅ ์ƒ์„ฑ

2-4. LLM์˜ ์ •์˜์™€ ๊ตฌ์กฐ (Large Language Model)

  • ์ดˆ๋Œ€ํ˜• ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ๊ฐ€์ง„ ์–ธ์–ด ๋ชจ๋ธ
  • ๋ชจ๋ธ + ์—ฐ์‚ฐ(GPU/TPU) + ๋ฐ์ดํ„ฐ์˜ ๊ฒฐํ•ฉ

2-5. LLM์˜ ์–ธ์–ด ์ดํ•ด ๋ฐฉ์‹

  • ํ† ํฐํ™” → ์ž„๋ฒ ๋”ฉ → ์œ„์น˜ ์ •๋ณด ๋ฐ˜์˜

2-6. LLM์˜ ํ…์ŠคํŠธ ์ƒ์„ฑ ๋ฐฉ์‹

  • Self-Attention ๊ธฐ๋ฐ˜ ๋‹ค์Œ ๋‹จ์–ด ์˜ˆ์ธก
  • Top-k / Top-p, Temperature ๋“ฑ ์‚ฌ์šฉ

2-7. LLM์˜ ํ•œ๊ณ„: ํ…์ŠคํŠธ ๊ธธ์ด ์ œํ•œ

  • ์ฝ˜ํ…์ŠคํŠธ ์œˆ๋„์šฐ ํ•œ๊ณ„
  • ๋ถ„ํ• ·์š”์•ฝ·๋Œ€ํ˜• ์ปจํ…์ŠคํŠธ ๋ชจ๋ธ๋กœ ๋ณด์™„

3. LLM์˜ ํ•™์Šต ์›๋ฆฌ

3-1. ๋ชจ๋ธ์„ ์—…๋ฐ์ดํŠธํ•˜๋Š” ๋ฐฉ๋ฒ•

3-1-1. ์‚ฌ์ „ ํ•™์Šต (Pre-training) : ๋ฐ์ดํ„ฐ์˜ ๋ฒ”์šฉ์„ฑ

  • ๋ฐฉ๋Œ€ํ•œ ํ…์ŠคํŠธ ๋ฐ์ดํ„ฐ๋ฅผ ํ†ตํ•ด ์–ธ์–ด์˜ ๊ธฐ๋ณธ ๊ตฌ์กฐ์™€ ํŒจํ„ด ํ•™์Šต
  • ๋Œ€๊ทœ๋ชจ ๋ฐ์ดํ„ฐ ์ˆ˜์ง‘ ํ›„ ์ •์ œ ๊ณผ์ • ํ•„์ˆ˜
  • ๋ฌธ๋งฅ ์ดํ•ด ๋ฐ ์ผ๋ฐ˜์ ์ธ ํ…์ŠคํŠธ ์ƒ์„ฑ ๋Šฅ๋ ฅ ํ™•๋ณด

3-1-2. ํŒŒ์ธํŠœ๋‹ (Fine-tuning) : ๋ฐ์ดํ„ฐ์˜ ์ „๋ฌธ์„ฑ

  • ํŠน์ • ๋„๋ฉ”์ธ์ด๋‚˜ ์ž‘์—…์— ๋งž๊ฒŒ ์ถ”๊ฐ€ ํ•™์Šต
  • ์˜ˆ: ๋ฒˆ์—ญ(์ถœ๋ฐœ–๋„์ฐฉ ๋ฌธ์žฅ), ์งˆ์˜์‘๋‹ต(Q&A)
  • ๋ชจ๋ธ ์ „์ฒด ๋˜๋Š” ์ผ๋ถ€ ํŒŒ๋ผ๋ฏธํ„ฐ๋งŒ ์—…๋ฐ์ดํŠธ ๊ฐ€๋Šฅ

์ธ๊ฐ„์˜ ์ง€์‹œ๋ฅผ ๋” ์ž˜ ์ดํ•ดํ•˜๊ธฐ ์œ„ํ•œ ๋ณด์™„ ๋ฐฉ๋ฒ•: ์ธ์ŠคํŠธ๋Ÿญ์…˜ ํŠœ๋‹, RLHF

3-1-3. ์ธ์ŠคํŠธ๋Ÿญ์…˜ ํŠœ๋‹ (Instruction Tuning)

  • ๋‹ค์–‘ํ•œ ์‚ฌ์šฉ์ž ์ง€์‹œ์— ์ ์ ˆํžˆ ์‘๋‹ตํ•˜๋„๋ก ํ•™์Šต
  • ํŒŒ์ธํŠœ๋‹๊ณผ์˜ ์ฐจ์ด
    • ํŒŒ์ธํŠœ๋‹: ํŠน์ • ์ž‘์—… ์ค‘์‹ฌ
    • ์ธ์ŠคํŠธ๋Ÿญ์…˜ ํŠœ๋‹: ๋‹ค์–‘ํ•œ ์ž‘์—… ์ „๋ฐ˜

3-1-4. RLHF (Reinforcement Learning from Human Feedback)

  • ์ธ๊ฐ„ ํ”ผ๋“œ๋ฐฑ์„ ํ™œ์šฉํ•œ ๊ฐ•ํ™” ํ•™์Šต
  • ๋‹ต๋ณ€ ์ˆœ์œ„ → ๋ณด์ƒ ๋ชจ๋ธ ์ƒ์„ฑ → ๊ฐ•ํ™” ํ•™์Šต ์ ์šฉ
  • ์‚ฌ๋žŒ์ด ์„ ํ˜ธํ•˜๋Š” ์‘๋‹ต์— ๊ฐ€๊นŒ์›Œ์ง

3-2. ๋ชจ๋ธ ์—…๋ฐ์ดํŠธ ์—†์ด LLM์„ ๋น ๋ฅด๊ฒŒ ํ™œ์šฉํ•˜๋Š” ๋ฐฉ๋ฒ•

3-2-1. ์ธ์ฝ˜ํ…์ŠคํŠธ ๋Ÿฌ๋‹ (In-Context Learning)

  • ์‚ฌ์šฉ์ž๊ฐ€ ์ œ๊ณตํ•œ ํ”„๋กฌํ”„ํŠธ ๋งฅ๋ฝ์„ ํ†ตํ•ด ์ฆ‰์„ ํ•™์Šต
  • ํ”„๋กฌํ”„ํŠธ: ์ง€์‹œ, ์ •๋ณด, ์˜ˆ์‹œ ํฌํ•จ ์ž…๋ ฅ
  • Few-shot Learning: ์˜ˆ์‹œ๋ฅผ ํ†ตํ•ด ํŒจํ„ด ํ•™์Šต
  • Zero-shot Learning: ์˜ˆ์‹œ ์—†์ด ์ง€์‹œ๋งŒ์œผ๋กœ ์ˆ˜ํ–‰

3-3. ํ•™์Šต๋˜์ง€ ์•Š์€ ๋ฐ์ดํ„ฐ์— ๋Œ€ํ•œ ๋Œ€์‘

3-3-1. ํŒŒ์ธํŠœ๋‹์˜ ํ•œ๊ณ„

  • ์ผ๋ถ€ ํŒŒ๋ผ๋ฏธํ„ฐ๋งŒ ํ•™์Šต ๊ฐ€๋Šฅ
  • ์ง€์‹์ด ์ž์ฃผ ๋ณ€ํ•˜๋Š” ๊ฒฝ์šฐ ๋น„ํšจ์œจ์ 

3-3-2. RAG (Retrieval-Augmented Generation)

  • ์™ธ๋ถ€ ๋ฐ์ดํ„ฐ๋ฅผ ๊ฒ€์ƒ‰ํ•˜์—ฌ ์ƒ์„ฑ์— ํ™œ์šฉ
  • ์ž„๋ฒ ๋”ฉ ๊ธฐ๋ฐ˜์œผ๋กœ ์งˆ๋ฌธ๊ณผ ๊ฐ€์žฅ ์œ ์‚ฌํ•œ ์ •๋ณด ๊ฒ€์ƒ‰

3-4. ์ถ”๋ก  ๊ธฐ๋ฒ•๊ณผ Reasoning ๋ฐฉ์‹

3-4-1. ์ƒ๊ฐ์˜ ์‚ฌ์Šฌ (Chain of Thought, CoT)

  • ๋‹จ๊ณ„์  ์‚ฌ๊ณ  ๊ณผ์ •์„ ํ†ตํ•ด ์ •๋‹ต ๋„์ถœ ํ™•๋ฅ  ํ–ฅ์ƒ
  • ๋‚ด๋ถ€์ ์œผ๋กœ ์—ฌ๋Ÿฌ ๋‹จ๊ณ„์˜ ์ถ”๋ก ์„ ์ˆ˜ํ–‰

3-5. ์†Œํ˜• LLM (sLLM)

  • ํŒŒ๋ผ๋ฏธํ„ฐ ์ˆ˜๋ฅผ ์ค„์ธ ๊ฒฝ๋Ÿ‰ ๋ชจ๋ธ
  • LLM: ์ˆ˜๋ฐฑ์–ต~์กฐ ๋‹จ์œ„ ํŒŒ๋ผ๋ฏธํ„ฐ
  • sLLM: ์ˆ˜์‹ญ์–ต ์ดํ•˜ ํŒŒ๋ผ๋ฏธํ„ฐ
  • ์žฅ์ : ์ €๋น„์šฉ, ์˜จ๋””๋ฐ”์ด์Šค·ํ์‡„๋ง ํ™˜๊ฒฝ ํ™œ์šฉ ๊ฐ€๋Šฅ

3-6. ๋ฉ€ํ‹ฐ๋ชจ๋‹ฌ ๋ชจ๋ธ (Multimodal Model)

  • ํ…์ŠคํŠธ, ์ด๋ฏธ์ง€, ์Œ์„ฑ, ์˜์ƒ ๋“ฑ ๋‹ค์–‘ํ•œ ๋ฐ์ดํ„ฐ ์ฒ˜๋ฆฌ
  • ์˜ˆ: ์ด๋ฏธ์ง€ ์„ค๋ช…, ๊ทธ๋ฆผ ์ƒ์„ฑ, ์Œ์„ฑ ๋Œ€ํ™”

ํ•œ ์ค„ ์š”์•ฝ

LLM์€ ๋Œ€๊ทœ๋ชจ ๋ฐ์ดํ„ฐ์™€ ์—ฐ์‚ฐ์„ ๊ธฐ๋ฐ˜์œผ๋กœ ์‚ฌ์ „ ํ•™์Šต·๋ฏธ์„ธ ์กฐ์ •·์ถ”๋ก  ๊ธฐ๋ฒ•์„ ๊ฒฐํ•ฉํ•ด ์ธ๊ฐ„ ์ˆ˜์ค€์˜ ์–ธ์–ด ์ดํ•ด์™€ ์ƒ์„ฑ์„ ์ˆ˜ํ–‰ํ•˜๋Š” ์ธ๊ณต์ง€๋Šฅ ๋ชจ๋ธ

๋ฐ˜์‘ํ˜•