Enterprise 데모
STEP 01

시작하기

워크스페이스를 만들고 목적을 정하면 Leaf가 나머지를 안내합니다.

워크스페이스 이름

leaf workspace create --name my-ai-project

목적 선택

STEP 02

모델 플랜 생성

목적을 입력하면 Leaf가 최적의 모델 조합과 학습 방식을 추천합니다.

생성된 플랜 — 경량 응답형

기반 모델Qwen2.5-3B
학습 방식SFT → DPO
예상 학습 시간Mac M2 기준 약 45분
추천 데이터량SFT 500건 이상
STEP 03

모델 비교 워크벤치

같은 프롬프트로 여러 모델을 동시에 테스트하고 수치로 비교합니다.

지표Qwen2.5-3BGemma3-4B
응답 속도45 t/s38 t/s
한국어★★★★☆★★★★★
코딩★★★☆☆★★★☆☆
Tool-use94%78%
메모리2.1 GB2.8 GB
STEP 04

데이터 팩토리

원시 데이터를 넣으면 학습 가능한 데이터셋이 나옵니다.

데이터 소스

대화 로그 (2,847건)
PDF 문서 (143개)
CSV 데이터 (512행)

2,847

원시 데이터

STEP 05

Capability Layer

모델에게 어떤 손발을 달아줄지 결정합니다. 이 설정이 실제 행동 범위를 결정합니다.

STEP 06

학습 팩토리

레시피를 선택하고 실행 버튼을 누르면 됩니다.

에폭3
배치 크기4
실행 환경Mac M2 · MLX
STEP 07

평가 / 벤치마크

Base 모델과 Fine-tuned 모델을 나란히 비교합니다.

지표BaseFine-tuned변화
Task 성공률61%89%+28%p
Tool 정확도54%94%+40%p
환각 발생률18%4%-14%p
응답 속도1.2s0.9s-25%
LLM Judge6.18.7+2.6
STEP 08

패키징 / 내보내기

학습된 모델과 모든 설정을 Intelligence Pack으로 묶어 내보냅니다.

Pack 구성 (14종)

Base Model
LoRA Adapter
Tokenizer
System Prompt
Skill Definitions
Tool Schema
MCP Config
Harness Loop Policy
Guardrails
Evaluation Policy
RAG Config
Runtime Config
Deployment Manifest
Eval Report

내보내기 경로

~/Desktop/my-project.leafpack

형식: GGUF

model-q4_k_m.gguf + pack.json
STEP 09

배포 / 서빙

Intelligence Pack을 로컬 또는 클라우드에 배포합니다.

실행 명령어

leaf serve --pack ./my.leafpack --backend mlx

엔드포인트

http://localhost:7878/api/chat
STEP 10

지속학습

배포 후에도 모델은 계속 강해집니다. 실행 로그가 쌓이면 재학습을 자동으로 제안합니다.

자가진화 루프

1Agent 실행
2로그 수집
3데이터 정제
4자동 재학습
5Pack 교체

↺ 반복 — 쓸수록 강해집니다

재학습 트리거 설정

성공률 하락 임계값80%
누적 로그 기준500건
자동 재학습ON
Enterprise AI 가이드

현재 섹션

워크스페이스를 생성하고 목적을 선택합니다. 목적을 정하면 Leaf가 모델·학습 방식·Capability를 자동으로 제안합니다.