Knowledge Base

로딩 중...

문서 업로드

업로드할 Knowledge Base를 위에서 먼저 선택하세요. 선택된 KB: 없음

📃
파일을 드래그하거나 클릭하여 업로드
PDF, TXT, DOCX, CSV, MD, ZIP 지원 (ZIP은 자동으로 압축 해제 후 개별 업로드)

    업로드된 파일 목록

    파일명크기업로드일상태작업
    파일이 없습니다.

    정확도 강화 추이

    자가학습 루프 사이클별 정확도 변화를 시각화합니다. 대상 KB: 전체

    총 사이클
    -
    최근 정확도
    -
    평균 정확도
    -
    버그리포트
    -
    추론 속도 (Inference Speed)
    -
    tok/s
    평균 응답 시간 (Avg Latency)
    -
    sec
    프롬프트 처리 (Prompt Speed)
    -
    tok/s
    평균 응답 길이 (Avg Tokens)
    -
    tokens

    사이클 테스트 실행

    개발 모드
    개발 모드 — GPU 풀 점유, 챗봇 응답 불가. 정밀 테스트용.

    최근 사이클 기록

    행을 클릭하면 출제 문항과 오답을 확인할 수 있습니다.

    #시각KB정확도정답/전체모델

    서버 연결

    GPU 상태

    온도
    -
    GPU 사용률
    -
    전력
    -
    메모리
    -

    개발자 노트

    납품 시 제거할 항목 및 개발 환경 전용 설정

    항목 상태 비고
    Tailscale (원격 접근) 설치됨 개발용 원격 테스트. 납품 시 apt remove tailscale로 제거
    ONLINE_MODE ON: Claude Code API 개입 (개발). OFF: 자체 채점만 (폐쇄망)
    PDF 전처리 (pdf_enhancer.py) v2.0 9대 기능. 납품 시 포함 (오프라인 동작)
    Open WebUI v0.8.8 로컬 LLM용 RAG 미들웨어. pip install open-webui 하나로 설치.
    역할: RAG 검색 엔진, KB 관리, 임베딩/리랭킹, 문서 전처리(OCR 포함), 인증
    알려진 버그: files=null, list index out of range (재시도 적용)
    전처리 패키지 자동 설치 pip install open-webui 시 의존성으로 자동 포함:
    rapidocr-onnxruntime (OCR), unstructured (문서 파싱), pypdf (PDF),
    opencv-python-headless (이미지 전처리), python-magic (MIME 감지)
    → 새 서버 배포 시 별도 설치 불필요
    demo.html (이 페이지) 개발 전용 납품 시 제거 또는 관리자 전용으로 제한
    튜닝 로드맵 미착수 사이클 테스트 결과 기반으로 순차 적용 예정:
    ① 청크 전략 최적화 (크기, 오버랩, 메타데이터)
    ② 프롬프트 엔지니어링 튜닝
    ③ 리랭킹 모델/파라미터 조정
    ④ top-k, temperature 등 하이퍼파라미터 튜닝
    ⑤ 멀티도메인 KB 간 충돌 방지
    ⑥ 할루시네이션 감소 전략
    ⑦ 사이클 테스트 결과 분석 → 약점 파악 → 개선 반복
    납품 체크리스트 미완료 서비스 수준 전환을 위한 필수 항목:
    서비스 자동 시작 — systemd 서비스 등록 (부팅 시 자동 실행)
    장애 복구 — watchdog으로 프로세스 자동 재시작
    로그 관리 — logrotate 설정 (/tmp 임시 → journald 정규화)
    디스크 관리 — 결과 파일 자동 정리/아카이브 (eMMC 용량 제한)
    보안 — API 키 인증, HTTPS 적용
    배포 패키지 — install.sh 원클릭 설치 스크립트
    사이클 정확도 — 목표 99% 달성 후 튜닝 완료

    위젯 설정

    (이해용) 구성도

    시스템 전체 아키텍처 — 개발/이해 참고용

    범례
    외부 오픈소스
    자체 개발
    핵심 포인트
    Open WebUI = RAG 두뇌
    chat_api_server = API 통합
    batch_runner = 자동 테스트
    폐쇄망 동작 가능
    DGX Spark — 192.168.0.33 | Ubuntu | 128GB Unified Memory | NVIDIA GB10
    LLM 추론 엔진
    :11434
    Ollama
    qwen3-32b-ragLLM
    bge-m3임베딩
    RAG 미들웨어
    :8080
    Open WebUI
    • KB 관리
    • 벡터 임베딩 / 유사도 검색
    • 리랭킹
    • 문서 전처리 (OCR)
    통합 API
    :8083
    chat_api_server (자체 개발)
    /api/chat   /api/batch
    /api/trend   /api/gpu-stats
    /api/bug-reports   /api/health
    추론 → ← 응답
    ← 요청 응답 →
    ↑ 문항생성
    ↑ 청크 수집
    POST /api/chat 질문
    API 호출 ↑
    사이클 테스트 엔진
    batch_runner.py (자체 개발)
    질문 출제 / RAG 응답 / 자동 채점
    성능 측정 (tok/s) / 결과 저장
    질문 풀 생성기
    gen_qa_pool.py (자체 개발)
    KB 청크 수집 / LLM Q&A 생성
    300문항 목표 / qa_pool/ 저장
    관리자 UI
    :8085
    demo.html (자체 개발)
    트렌드 / 사이클 / GPU / KB 관리
    구성도 (이 페이지)
    질문 읽기
    풀 저장
    결과 저장
    차트 표시
    데이터 저장소 (project_main/)
    config/qa_pool/
    질문 풀 JSON
    config/test_qa/
    사이클 결과 + 성능
    reports.json
    버그 리포트
    사이클 테스트 흐름
    ������
    질문 풀
    ⚙️
    테스트 엔진
    (batch_runner)
    ������
    API 게이트웨이
    (chat_api_server)
    ������
    RAG 검색/리랭킹
    (Open WebUI)
    ������
    LLM 추론
    (Ollama)
    자동 채점
    ������
    저장
    고객 질문 흐름 (사용자 관점)
    ������
    고객
    ������
    챗봇 위젯
    (widget.js)
    ������
    API 게이트웨이
    (chat_api_server)
    ������
    RAG 검색/리랭킹
    (Open WebUI)
    ������
    LLM 추론
    (Ollama)
    ������
    답변 생성
    답변 표시
    개발 PC (Win11)
    SSH / pscpHTTP API
    DGX Spark
    192.168.0.33