Qwen3-8B-GGUF

🤖 코드베이직 제공

이 모델은 **코드베이직(codebasic)**에서 GGUF 포맷으로 변환·배포하였습니다.

이 리포지토리는 Qwen3-8B 모델을 여러 GGUF 양자화 버전으로 제공합니다.
llama.cpp, text-generation-webui, koboldcpp 등 GGUF 포맷을 지원하는 다양한 환경에서 사용할 수 있습니다.


📂 제공 파일

파일명 양자화 방식 메모리 요구량(대략) 설명
Qwen3-8B-F16.gguf FP16 (비양자화) ~16GB 원본 FP16 가중치 (GPU/고사양 환경)
Qwen3-8B-Q8_0.gguf Q8_0 ~9GB 고품질 양자화, 거의 FP16 수준의 정확도

💡 메모리 요구량은 추정치이며, 환경에 따라 다를 수 있습니다.


🚀 사용 방법

1. Docker (llama.cpp Q8_0 예시)

docker run -v /path/to/models:/models \
    ghcr.io/ggml-org/llama.cpp:full \
    --run -m /models/Qwen3-8B/Qwen3-8B-Q8_0.gguf \
    -p "언어 모델 소개"
Downloads last month
1,745
GGUF
Model size
8.19B params
Architecture
qwen3
Hardware compatibility
Log In to view the estimation

2-bit

4-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for codebasic/Qwen3-8B-GGUF

Base model

Qwen/Qwen3-8B-Base
Finetuned
Qwen/Qwen3-8B
Quantized
(140)
this model