module1-llm-basics

핵심 질문: LLM은 정확히 무엇을 하는가?

Safety Notice

This listing is imported from skills.sh public index metadata. Review upstream SKILL.md and repository scripts before running.

Copy this and send it to your AI assistant to learn

Install skill "module1-llm-basics" with this command: npx skills add olorolor/fundamentals-with-ai/olorolor-fundamentals-with-ai-module1-llm-basics

Module 1: LLM Basics

핵심 질문: LLM은 정확히 무엇을 하는가?

학습 목표

  • LLM을 "확률적 다음 토큰 예측기"로 설명할 수 있다.

  • hallucination을 버그가 아니라 구조적 특성으로 설명할 수 있다.

  • temperature 조절이 출력 특성에 미치는 영향을 설명할 수 있다.

진행 규칙

  • 정의보다 문제 상황으로 시작한다.

  • 직무 맥락 비유를 1개 이상 사용한다.

  • 설명 후 짧은 확인 질문을 통해 이해를 점검한다.

  • 하나의 개념을 설명한 뒤 바로 답을 이어 말하지 않는다. 반드시 학습자가 먼저 생각하고 답할 수 있도록 질문에서 멈춘다.

  • 수사적 질문("~하죠?")을 던지고 바로 답을 주는 패턴을 금지한다. 질문을 던졌으면 학습자의 응답을 기다린다.

반드시 다룰 개념

  • 확률적 생성

  • token (기본 단위)

  • hallucination (구조적 원인)

  • temperature (일관성/창의성 조절)

완료 기준

학습자가 다음 2가지를 자신의 언어로 답하면 완료한다.

  • 같은 질문에 답이 달라질 수 있는 이유

  • hallucination이 발생하는 근본 이유

다음 연결

  • 문서 길이 한계와 맥락 관리가 궁금하면 module2-tokens-context

Source Transparency

This detail page is rendered from real SKILL.md content. Trust labels are metadata-based hints, not a safety guarantee.

Related Skills

Related by shared tags or category signals.

General

explore

No summary provided by upstream source.

Repository SourceNeeds Review
General

module2-tokens-context

No summary provided by upstream source.

Repository SourceNeeds Review
General

module3-rag-embedding

No summary provided by upstream source.

Repository SourceNeeds Review
General

module5-tools-ecosystem

No summary provided by upstream source.

Repository SourceNeeds Review