📝 نموذج التلخيص العربي

هذا المشروع يقدّم نموذج تلخيص نصوص باللغة العربية مبني على النموذج الأساسي LiquidAI/LFM2-350M، وتمت إعادة تدريبه (Fine-tuning) على مجموعة بيانات مكوّنة من 17,000 سجل لتلخيص النصوص بدقة وكفاءة عالية.


⚡ المميزات

  • ✅ أداء قوي جدًا في تلخيص النصوص العربية.
  • ✅ يحافظ على المعنى العام للنص مع اختصار الحجم.
  • ✅ يمكن استخدامه في تلخيص المقالات، الأخبار، الأبحاث، والمستندات الطويلة.
  • ✅ مبني على نموذج قوي مفتوح المصدر مع إعادة ضبط دقيقة (Fine-tuning).

🛠️ البيانات

تم تدريب النموذج باستخدام 17,000 صف من البيانات عالية الجودة التي تحتوي على نصوص عربية وأهداف التلخيص المقابلة لها. هذا ساعد في تحسين دقة النموذج وجعله قادرًا على إنتاج ملخصات متماسكة وسلسة.


🚀 كيفية الاستخدام

from transformers import AutoModelForSeq2SeqLM, AutoTokenizer

# تحميل النموذج والمحول
model_name = "اسم-المستخدم/arabic-summarization-model"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)

# إدخال نص للتلخيص
text = """النص العربي المراد تلخيصه ..."""

inputs = tokenizer(text, return_tensors="pt", max_length=1024, truncation=True)
summary_ids = model.generate(inputs["input_ids"], max_length=150, min_length=40, length_penalty=2.0, num_beams=4)

# عرض الملخص
print(tokenizer.decode(summary_ids[0], skip_special_tokens=True))

📊 الأداء

النموذج أظهر نتائج ممتازة في التجارب الداخلية على مقاييس الدقة، التماسك، والمحافظة على المعنى. أداؤه يُعتبر جيد جدًا مقارنة بالنماذج المشابهة في مجال تلخيص النصوص العربية.


📌 ملاحظات

  • النموذج ما زال قابلًا للتطوير عبر تدريبه على بيانات إضافية.
  • يُفضّل استخدامه مع نصوص عربية فصيحة، مع أنه يعمل بشكل جيد أيضًا مع بعض اللهجات.
Downloads last month
35
Safetensors
Model size
354M params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for oddadmix/arabic-summarization

Base model

LiquidAI/LFM2-350M
Finetuned
(12)
this model

Dataset used to train oddadmix/arabic-summarization

Space using oddadmix/arabic-summarization 1