Leaf Model Factory
목적에 맞는 모델을 고르고, 비교하고, 학습·패키징까지 한 흐름
① 등록소 → ② 비교 엔진(필수) → ③ 데이터셋 빌더 → ④ 파인튜닝 잡 → ⑤ 어댑터 → ⑥ 평가 → ⑦ 양자화·내보내기 → ⑧ 패키지. 서드파티(Mac MLX/Ollama, 서버 vLLM/LoRAX 등)는 어댑터로만 연결합니다.
데이터셋
0
0 validated
진행 중 학습
0
총 0 jobs
어댑터
0
0 active
누적 비용
$0.00
GPU 0 min
진행 중인 학습 잡
실시간 SSE 메트릭은 잡 상세에서
진행 중인 학습이 없습니다. 잡 큐에서 시작하세요.
학습 시작최근 어댑터
학습 결과로 등록된 LoRA/QLoRA
아직 어댑터가 없습니다. 첫 학습을 완료하세요.
확장 파이프라인 상태 (C 콘솔)
경험 수집·연합학습 등은 A 내비에 넣지 않고, 아래 지표만 요약합니다.
Experience Samples
0
중앙 학습 원천
FedAvg Groups
0
동일 모델군만 집계
Active Nodes
0/0
로컬·클라우드·API
Privacy Pass
100.0%
redactor_v1
8 코어 (A안 내비와 동일)
왼쪽 사이드바 순서와 1:1
확장 기능 (C 콘솔)
코드·페이지는 그대로 — 경로만 C안(전 공정 IA) 메뉴로 모았습니다
콘솔 12항목 맵 (C)
큐레이션·런 모니터링·API·청구 등 — 전부 /finetuning
1. 데이터셋 파일업로드 / 검증 / 버전2. 큐레이션SFT/DPO/Tool/Router/Planner 분리3. 베이스 모델Qwen / Gemma / DeepSeek / Llama4. 학습 잡 큐LoRA/QLoRA/DPO 잡 생성5. 학습 모니터링loss/lr 실시간 SSE6. 어댑터버전·점수·활성화7. 배포Ollama / MLX / vLLM / LoRAX8. 데이터셋 빌더경험→SFT/DPO 등 변환9. 평가 / A/BJudge·벤치·두 어댑터 비교10. 모델 비교 워크벤치동일 시나리오 비교11. API 키발급·사용량·스코프12. 비용 / 청구추론 + 학습 GPU 분 단위