BERT Bahasa - Sentimen Berita

Model ini merupakan model klasifikasi sentimen berbasis BERT untuk artikel berita media online berbahasa Indonesia. Model ini memetakan artikel menjadi tiga kategori sentimen:

  • Positif
  • Netral
  • Negatif

Dataset

Model dilatih menggunakan kumpulan artikel berita dalam Bahasa Indonesia yang telah diberi label sentimen oleh LLM. Setiap sampel terdiri dari:

  • title: judul artikel
  • article_text: isi artikel
  • analisis_llm: label sentimen (positif, netral, atau negatif)

Jumlah data latih: 10.125 sampel
Distribusi label seimbang

Arsitektur

Model ini menggunakan pretrained BERT Indo (indobenchmark/indobert-base-p1) dan fine-tuned untuk tugas klasifikasi tiga label menggunakan transformers dari Hugging Face.

Cara Menggunakan

from transformers import AutoTokenizer, AutoModelForSequenceClassification, pipeline

model = AutoModelForSequenceClassification.from_pretrained("dwili/bert-bahasa-sentimen-berita")
tokenizer = AutoTokenizer.from_pretrained("dwili/bert-bahasa-sentimen-berita")

classifier = pipeline("text-classification", model=model, tokenizer=tokenizer)

text = "Pemerintah resmi meluncurkan kebijakan baru yang mendukung ekonomi masyarakat."
classifier(text)
Downloads last month
61
Safetensors
Model size
124M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for dwili/bert-bahasa-sentimen-berita

Finetuned
(87)
this model