STEP 01
시작하기
워크스페이스를 만들고 목적을 정하면 Leaf가 나머지를 안내합니다.
워크스페이스 이름
leaf workspace create --name my-ai-project
목적 선택
STEP 02
모델 플랜 생성
목적을 입력하면 Leaf가 최적의 모델 조합과 학습 방식을 추천합니다.
생성된 플랜 — 경량 응답형
기반 모델Qwen2.5-3B
학습 방식SFT → DPO
예상 학습 시간Mac M2 기준 약 45분
추천 데이터량SFT 500건 이상
STEP 03
모델 비교 워크벤치
같은 프롬프트로 여러 모델을 동시에 테스트하고 수치로 비교합니다.
| 지표 | Qwen2.5-3B | Gemma3-4B |
|---|---|---|
| 응답 속도 | 45 t/s | 38 t/s |
| 한국어 | ★★★★☆ | ★★★★★ |
| 코딩 | ★★★☆☆ | ★★★☆☆ |
| Tool-use | 94% | 78% |
| 메모리 | 2.1 GB | 2.8 GB |
STEP 04
데이터 팩토리
원시 데이터를 넣으면 학습 가능한 데이터셋이 나옵니다.
데이터 소스
대화 로그 (2,847건)
PDF 문서 (143개)
CSV 데이터 (512행)
2,847
원시 데이터
STEP 05
Capability Layer
모델에게 어떤 손발을 달아줄지 결정합니다. 이 설정이 실제 행동 범위를 결정합니다.
STEP 06
학습 팩토리
레시피를 선택하고 실행 버튼을 누르면 됩니다.
에폭3
배치 크기4
실행 환경Mac M2 · MLX
STEP 07
평가 / 벤치마크
Base 모델과 Fine-tuned 모델을 나란히 비교합니다.
| 지표 | Base | Fine-tuned | 변화 |
|---|---|---|---|
| Task 성공률 | 61% | 89% | +28%p |
| Tool 정확도 | 54% | 94% | +40%p |
| 환각 발생률 | 18% | 4% | -14%p |
| 응답 속도 | 1.2s | 0.9s | -25% |
| LLM Judge | 6.1 | 8.7 | +2.6 |
STEP 08
패키징 / 내보내기
학습된 모델과 모든 설정을 Intelligence Pack으로 묶어 내보냅니다.
Pack 구성 (14종)
Base Model
LoRA Adapter
Tokenizer
System Prompt
Skill Definitions
Tool Schema
MCP Config
Harness Loop Policy
Guardrails
Evaluation Policy
RAG Config
Runtime Config
Deployment Manifest
Eval Report
내보내기 경로
~/Desktop/my-project.leafpack
형식: GGUF
model-q4_k_m.gguf + pack.json
STEP 09
배포 / 서빙
Intelligence Pack을 로컬 또는 클라우드에 배포합니다.
실행 명령어
leaf serve --pack ./my.leafpack --backend mlx
엔드포인트
http://localhost:7878/api/chat
STEP 10
지속학습
배포 후에도 모델은 계속 강해집니다. 실행 로그가 쌓이면 재학습을 자동으로 제안합니다.
자가진화 루프
1Agent 실행
2로그 수집
3데이터 정제
4자동 재학습
5Pack 교체
↺ 반복 — 쓸수록 강해집니다
재학습 트리거 설정
성공률 하락 임계값80%
누적 로그 기준500건
자동 재학습ON