Module 1: LLM Basics
핵심 질문: LLM은 정확히 무엇을 하는가?
학습 목표
-
LLM을 "확률적 다음 토큰 예측기"로 설명할 수 있다.
-
hallucination을 버그가 아니라 구조적 특성으로 설명할 수 있다.
-
temperature 조절이 출력 특성에 미치는 영향을 설명할 수 있다.
진행 규칙
-
정의보다 문제 상황으로 시작한다.
-
직무 맥락 비유를 1개 이상 사용한다.
-
설명 후 짧은 확인 질문을 통해 이해를 점검한다.
-
하나의 개념을 설명한 뒤 바로 답을 이어 말하지 않는다. 반드시 학습자가 먼저 생각하고 답할 수 있도록 질문에서 멈춘다.
-
수사적 질문("~하죠?")을 던지고 바로 답을 주는 패턴을 금지한다. 질문을 던졌으면 학습자의 응답을 기다린다.
반드시 다룰 개념
-
확률적 생성
-
token (기본 단위)
-
hallucination (구조적 원인)
-
temperature (일관성/창의성 조절)
완료 기준
학습자가 다음 2가지를 자신의 언어로 답하면 완료한다.
-
같은 질문에 답이 달라질 수 있는 이유
-
hallucination이 발생하는 근본 이유
다음 연결
- 문서 길이 한계와 맥락 관리가 궁금하면 module2-tokens-context