BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Paper
•
1810.04805
•
Published
•
26
항공 안전 도메인에 특화된 한국어 BERT 모델
🤗 Huggingface Hub에 업로드 된 모델을 바로 사용할 수 있습니다 :)
# Load model directly
from transformers import AutoTokenizer, AutoModelForPreTraining
tokenizer = AutoTokenizer.from_pretrained("oneonlee/KoAirBERT")
model = AutoModelForPreTraining.from_pretrained("oneonlee/KoAirBERT")
이 코드를 연구용으로 사용하는 경우 아래와 같이 인용해주세요.
@software{lee_2023_10158254,
author = {Lee, DongGeon},
title = {KoAirBERT: Korean BERT Model Specialized for Aviation Safety Domain},
month = nov,
year = 2023,
publisher = {Zenodo},
version = {v1.0.0},
doi = {10.5281/zenodo.10158254},
url = {https://doi.org/10.5281/zenodo.10158254}
}
KoAirBERT는 AGPL-3.0 라이선스 하에 공개되어 있습니다. 모델 및 코드를 사용할 경우 라이선스 내용을 준수해주세요. 라이선스 전문은 LICENSE 파일에서 확인하실 수 있습니다.
Totally Free + Zero Barriers + No Login Required