Code Llama: Open Foundation Models for Code
Paper • 2308.12950 • Published • 29
⚠️ 이 모델은 더 이상 사용되지 않습니다. tellang/yeji-8b-rslora-v7-AWQ를 사용하세요.
이 모델은 rsLoRA + ORPO 방식으로 학습되었으나 베트남어 출력 문제로 인해 폐기되었습니다.
# 예상 출력 (한국어)
"오늘은 좋은 날입니다."
# 실제 출력 (베트남어)
"Hôm nay là một ngày tốt lành."
근본 원인: Qwen3 다국어 프리트레이닝
# 프롬프트
prompt = "사용자의 오늘 운세를 한국어로 알려주세요."
# v5 출력 (베트남어 혼입)
response = "오늘의 운세는 Sao Kim sẽ mang lại may mắn..."
# ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
# 베트남어: 금성이 행운을 가져올 것입니다
발생 빈도: 전체 응답의 약 15-20%
초기에는 Qwen3-Base의 다국어 능력이 장점으로 보였으나:
tellang/yeji-8b-rslora-v7-AWQfrom vllm import LLM, SamplingParams
llm = LLM(
model="tellang/yeji-8b-rslora-v7-AWQ",
quantization="awq",
)
# 다국어 출력 방지 프롬프트
system_prompt = """당신은 한국어 운세 전문가입니다.
반드시 한국어로만 응답하세요. 다른 언어는 절대 사용하지 마세요."""
sampling_params = SamplingParams(
temperature=0.7,
top_p=0.9,
max_tokens=512,
)
tellang/yeji-4b-rslora-v8.1 (다국어 문제 해결)tellang/yeji-8b-rslora-v7-AWQ (다국어 문제 해결)시스템 프롬프트 강화
system_prompt = """당신은 한국어 운세 상담사입니다.
규칙:
1. 한국어로만 응답합니다
2. 베트남어, 중국어, 영어 등 다른 언어는 절대 사용 금지
3. 한국어 문법을 정확히 따릅니다
"""
Few-Shot Learning
Constrained Decoding (선택적)
# vLLM guided decoding으로 한국어 토큰만 허용
sampling_params = SamplingParams(
logits_processor=[korean_only_filter],
)
| 지표 | v5 (rsLoRA) | v7-AWQ (rsLoRA + 다국어 억제) |
|---|---|---|
| 한국어 순도 | 80-85% | 99%+ |
| 베트남어 출력 | 15-20% | <1% |
| 추론 속도 | 30 tokens/s | 50 tokens/s (AWQ) |
| 정확도 | Baseline | +10% |
# v5 - 베트남어 출력 위험
llm = LLM(model="tellang/yeji-8b-lora-v5")
output = llm.generate("오늘의 운세는?")
# 출력: "Hôm nay sẽ có nhiều may mắn..." ❌
# v7-AWQ - 한국어 전용
llm = LLM(model="tellang/yeji-8b-rslora-v7-AWQ", quantization="awq")
# 다국어 방지 프롬프트
prompt = f"""{system_prompt}
사용자 질문: 오늘의 운세는?
상담사 응답:"""
output = llm.generate(prompt)
# 출력: "오늘은 긍정적인 에너지가 가득한 날입니다..." ✅
Apache 2.0
@misc{yeji-8b-lora-v5,
title={YEJI Fortune Telling Model (rsLoRA v5 - Deprecated)},
author={SSAFY YEJI Team},
year={2026},
note={Deprecated: Vietnamese output issue. Use yeji-8b-rslora-v7-AWQ instead}
}
Base model
Qwen/Qwen3-8B-Base