Kim SapoKR commited on
Commit
f122b7b
·
0 Parent(s):

Clean initial commit with LFS

Browse files
.gitattributes ADDED
@@ -0,0 +1,38 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ model.onnx_data filter=lfs diff=lfs merge=lfs -text
2
+ model.onnx filter=lfs diff=lfs merge=lfs -text
3
+ *.7z filter=lfs diff=lfs merge=lfs -text
4
+ *.arrow filter=lfs diff=lfs merge=lfs -text
5
+ *.bin filter=lfs diff=lfs merge=lfs -text
6
+ *.bz2 filter=lfs diff=lfs merge=lfs -text
7
+ *.ckpt filter=lfs diff=lfs merge=lfs -text
8
+ *.ftz filter=lfs diff=lfs merge=lfs -text
9
+ *.gz filter=lfs diff=lfs merge=lfs -text
10
+ *.h5 filter=lfs diff=lfs merge=lfs -text
11
+ *.joblib filter=lfs diff=lfs merge=lfs -text
12
+ *.lfs.* filter=lfs diff=lfs merge=lfs -text
13
+ *.mlmodel filter=lfs diff=lfs merge=lfs -text
14
+ *.model filter=lfs diff=lfs merge=lfs -text
15
+ *.msgpack filter=lfs diff=lfs merge=lfs -text
16
+ *.npy filter=lfs diff=lfs merge=lfs -text
17
+ *.npz filter=lfs diff=lfs merge=lfs -text
18
+ *.onnx filter=lfs diff=lfs merge=lfs -text
19
+ *.ot filter=lfs diff=lfs merge=lfs -text
20
+ *.parquet filter=lfs diff=lfs merge=lfs -text
21
+ *.pb filter=lfs diff=lfs merge=lfs -text
22
+ *.pickle filter=lfs diff=lfs merge=lfs -text
23
+ *.pkl filter=lfs diff=lfs merge=lfs -text
24
+ *.pt filter=lfs diff=lfs merge=lfs -text
25
+ *.pth filter=lfs diff=lfs merge=lfs -text
26
+ *.rar filter=lfs diff=lfs merge=lfs -text
27
+ *.safetensors filter=lfs diff=lfs merge=lfs -text
28
+ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
29
+ *.tar.* filter=lfs diff=lfs merge=lfs -text
30
+ *.tar filter=lfs diff=lfs merge=lfs -text
31
+ *.tflite filter=lfs diff=lfs merge=lfs -text
32
+ *.tgz filter=lfs diff=lfs merge=lfs -text
33
+ *.wasm filter=lfs diff=lfs merge=lfs -text
34
+ *.xz filter=lfs diff=lfs merge=lfs -text
35
+ *.zip filter=lfs diff=lfs merge=lfs -text
36
+ *.zst filter=lfs diff=lfs merge=lfs -text
37
+ *tfevents* filter=lfs diff=lfs merge=lfs -text
38
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
README.md ADDED
@@ -0,0 +1,611 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - ko
4
+ - en
5
+ library_name: sentence-transformers
6
+ metrics:
7
+ - cosine_accuracy@1
8
+ - cosine_accuracy@3
9
+ - cosine_accuracy@5
10
+ - cosine_accuracy@10
11
+ - cosine_precision@1
12
+ - cosine_precision@3
13
+ - cosine_precision@5
14
+ - cosine_precision@10
15
+ - cosine_recall@1
16
+ - cosine_recall@3
17
+ - cosine_recall@5
18
+ - cosine_recall@10
19
+ - cosine_ndcg@10
20
+ - cosine_mrr@10
21
+ - cosine_map@100
22
+ - dot_accuracy@1
23
+ - dot_accuracy@3
24
+ - dot_accuracy@5
25
+ - dot_accuracy@10
26
+ - dot_precision@1
27
+ - dot_precision@3
28
+ - dot_precision@5
29
+ - dot_precision@10
30
+ - dot_recall@1
31
+ - dot_recall@3
32
+ - dot_recall@5
33
+ - dot_recall@10
34
+ - dot_ndcg@10
35
+ - dot_mrr@10
36
+ - dot_map@100
37
+ pipeline_tag: sentence-similarity
38
+ tags:
39
+ - sentence-transformers
40
+ - sentence-similarity
41
+ - feature-extraction
42
+ - generated_from_trainer
43
+ widget:
44
+ - source_sentence: 대한지적공사 관계자는 "오랜 진통 끝에 지적재조사사업을 추진하게 돼 기쁘다"면서도 뭐라고 말했어?
45
+ sentences:
46
+ - >-
47
+ 2018 평창 동계올림픽이 개막하기 전 '공공의 적'은 영하 10도를 넘는 추위였다. 개막을 즈음해 추위는 조금 수그러드는가 싶더니
48
+ 바람이 멈추지 않아 대회 2일 차부터 경기가 잇달아 연기·취소됐다.
49
+
50
+ 올림픽 조직위원회와 국제스키연맹(FIS)은 11일 오전 11시 정선 알파인 경기장에서 열릴 예정이던 알파인 스키 남자 활강 경기를
51
+ 강풍으로 연기하기로 했다고 밝혔다. FIS는 “강풍이 경기장에 하루 종일 계속 불 것으로 전망돼 일정을 연기했다”고 밝혔다. 조직위는
52
+ 연기된 남자 활강 경기를 오는 15일 오전 11시에 치르고, 이 시간대에 원래 열릴 예정이던 남자 슈퍼대회전 경기 시간을 하루 뒤인
53
+ 16일 오전 11시로 순연하기로 했다.
54
+
55
+ 이어 이날 오후 1시30분부터 열릴 예정이던 스노보드 여자 슬로프스타일 예선 경기는 연기를 거듭하다 취소됐다. 조직위는 예선 없이 다음
56
+ 날 결선에서 참가자 27명이 한번에 경기해 순위를 가리기로 했다.
57
+
58
+ 강풍이 경기 진행에 영향을 미칠 것이란 예상은 대회 전부터 있었다. 올림픽 대회 슬로프가 설치된 정선·용평 알파인 경기장과 휘닉스 스노
59
+ 경기장은 슬로프 상단부의 해발고도가 900m가 넘는다. 임장호 조직위 기상기후팀장은 “알파인 스키는 상단부에 강한 바람이 불면, 선수들을
60
+ 실어나르는 곤돌라를 움직이기 어렵다”며 “스노보드나 프리스타일 스키는 순간적인 돌풍이 불 때 선수들이 다칠 가능성도 있다”고 말했다.
61
+
62
+ 바람이 경기에 미치는 영향을 알기에 조직위도 강풍을 비롯한 5가지 긴급 기상 상황을 가정해 경기 운영 매뉴얼을 만들었다. 이날 경기
63
+ 취소도 매뉴얼에 따른 조치였다. 임 팀장은 “12~13일 바람이 잦아들다가 14일에 다시 강풍이 불겠지만, 15일부터는 다시 잦아들
64
+ 것으로 보고 있다”며 “향후 강풍으로 경기가 연기돼도 올림픽 폐막 전 최대한 모든 경기를 끝내려 하고 있다”고 했다. 다만 경기 일정이
65
+ 바뀌면 참가 선수들과 코칭스태프가 어떻게 컨디션을 조절하며 경기를 준비할지 깊은 고민에 빠질 것으로 보인다.
66
+ - >-
67
+ 지적도면과 실제 경계가 맞지 않는 '지적불부합지'에 대한 재조사가 실시된다. 국토해양부는 지적도상 경계와 실제 경계가 일치하지 않는
68
+ 지적불부합지에 대해 2030년까지 지적재조사를 추진한다고 지난달 30일 밝혔다. 이와 관련 김기현 의원이 대표발의한 지적재조사특별법안이
69
+ 이날 국회 상임위를 통과했다. 지적불부합지는 경계분쟁과 민원의 대상이 되고 있는데, 현재 전체 필지의 약 15%(554만필지)에 이를
70
+ 것으로 추정된다. 특히 상당수는 지적측량이 불가능해 소유권 이전이나 건축행위 등 재산권 행사가 불가능하거나 제한받고 있어 조정이 시급한
71
+ 상황이다. 이에 따라 1995년 지적재조사사업추진 기본계획이 수립되고, 이듬해 지적재조사특별법이 입법예고됐지만 관련 부처들의 반대로
72
+ 무산됐다. 이후 2000년 다시 재조사사업 기본계획이 수립되고, 2006년 토지조사특별법안이 제출됐으나 성사되지 못한 채 오늘에 이르고
73
+ 있다. 지적불부합지는 100년 전 낙후된 기술로 만든 종이지적을 계속 사용하면서 종이도면의 신축, 경계선의 굵기, 개인오차 등으로
74
+ 생겨났다. 또 대장이 토지·임야대장으로 이원화돼 있고, 도면도 7종의 축척으로 등록된 것도 원인으로 꼽힌다. 일례로 1:1200 축척의
75
+ 압구정동 대지(280㎡, 1000만원/㎡)의 경우 지적도상 경계가 0.8mm 오차가 나면 실제 면적에선 27㎡의 차이가 발생, 약
76
+ 2억7000만원의 땅값이 차이나게 된다. 6·25전쟁으로 전국 106만1000필지의 지적공부가 분·소실되고, 약 80%의 지적측량기준점을
77
+ 잃어버린 것도 한 원인이다. 토지공법학회는 2005년 지적불부합에 따른 경계분쟁으로 연간 약 3800억원의 소송비용이 발생한 것으로
78
+ 추정했다. 또 경계확인측량으로 연간 900억원의 비용이 지출되고 있다. 정부는 총 8410억원을 투입, 2020년까지 280만필지를,
79
+ 나머지 274만필지는 2030년까지 정비할 계획이다. 국토부 관계자는 "지적불부합지가 정비되면 경계분쟁이 해소돼 사회적 비용을 절감할 수
80
+ 있고, 개인의 재산권 행사도 수월해 질 것"이라고 기대했다. 그러나 전국에 걸친 전면적인 지적재조사가 아니라 불부합지를 중심으로 한
81
+ 단계적 추진이어서 한계가 있다는 지적이다. 앞으로 재조사가 진행되면 불부합지가 계속 나타나게 될 것인데 그 때마다 경계조정을 해야 하는
82
+ 번거로움이 있다는 것. 특히 불부합지에 대한 경계조정은 이해가 첨예하게 충돌하다 보니 사업추진이 매우 어렵다. 이 때문에 전면적인
83
+ 재조사를 통해 한 번에 마무리하는 것이 수월하다는 설명이다. 대한지적공사 관계자는 "오랜 진통 끝에 지적재조사사업을 추진하게 돼
84
+ 기쁘다"면서도 "원래 전면적인 사업추진을 원했으나 예산 등의 문제로 단계적으로 진행하게 돼 아쉽다"고 말했다.
85
+ model-index:
86
+ - name: SentenceTransformer
87
+ results:
88
+ - task:
89
+ type: information-retrieval
90
+ name: Information Retrieval
91
+ dataset:
92
+ name: miracl
93
+ type: miracl
94
+ metrics:
95
+ - type: cosine_accuracy@1
96
+ value: 0.6103286384976526
97
+ name: Cosine Accuracy@1
98
+ - type: cosine_accuracy@3
99
+ value: 0.8169014084507042
100
+ name: Cosine Accuracy@3
101
+ - type: cosine_accuracy@5
102
+ value: 0.8732394366197183
103
+ name: Cosine Accuracy@5
104
+ - type: cosine_accuracy@10
105
+ value: 0.92018779342723
106
+ name: Cosine Accuracy@10
107
+ - type: cosine_precision@1
108
+ value: 0.6103286384976526
109
+ name: Cosine Precision@1
110
+ - type: cosine_precision@3
111
+ value: 0.378716744913928
112
+ name: Cosine Precision@3
113
+ - type: cosine_precision@5
114
+ value: 0.27605633802816903
115
+ name: Cosine Precision@5
116
+ - type: cosine_precision@10
117
+ value: 0.17276995305164322
118
+ name: Cosine Precision@10
119
+ - type: cosine_recall@1
120
+ value: 0.3846655691726114
121
+ name: Cosine Recall@1
122
+ - type: cosine_recall@3
123
+ value: 0.5901991071005155
124
+ name: Cosine Recall@3
125
+ - type: cosine_recall@5
126
+ value: 0.6794216477315068
127
+ name: Cosine Recall@5
128
+ - type: cosine_recall@10
129
+ value: 0.7694903427297795
130
+ name: Cosine Recall@10
131
+ - type: cosine_ndcg@10
132
+ value: 0.6833112035481234
133
+ name: Cosine Ndcg@10
134
+ - type: cosine_mrr@10
135
+ value: 0.7262426410313736
136
+ name: Cosine Mrr@10
137
+ - type: cosine_map@100
138
+ value: 0.6073885234240499
139
+ name: Cosine Map@100
140
+ - type: dot_accuracy@1
141
+ value: 0.6103286384976526
142
+ name: Dot Accuracy@1
143
+ - type: dot_accuracy@3
144
+ value: 0.8169014084507042
145
+ name: Dot Accuracy@3
146
+ - type: dot_accuracy@5
147
+ value: 0.8732394366197183
148
+ name: Dot Accuracy@5
149
+ - type: dot_accuracy@10
150
+ value: 0.92018779342723
151
+ name: Dot Accuracy@10
152
+ - type: dot_precision@1
153
+ value: 0.6103286384976526
154
+ name: Dot Precision@1
155
+ - type: dot_precision@3
156
+ value: 0.378716744913928
157
+ name: Dot Precision@3
158
+ - type: dot_precision@5
159
+ value: 0.27605633802816903
160
+ name: Dot Precision@5
161
+ - type: dot_precision@10
162
+ value: 0.17276995305164322
163
+ name: Dot Precision@10
164
+ - type: dot_recall@1
165
+ value: 0.3846655691726114
166
+ name: Dot Recall@1
167
+ - type: dot_recall@3
168
+ value: 0.5901991071005155
169
+ name: Dot Recall@3
170
+ - type: dot_recall@5
171
+ value: 0.6794216477315068
172
+ name: Dot Recall@5
173
+ - type: dot_recall@10
174
+ value: 0.7694903427297795
175
+ name: Dot Recall@10
176
+ - type: dot_ndcg@10
177
+ value: 0.6723275985412543
178
+ name: Dot Ndcg@10
179
+ - type: dot_mrr@10
180
+ value: 0.7262426410313736
181
+ name: Dot Mrr@10
182
+ - type: dot_map@100
183
+ value: 0.6073885234240499
184
+ name: Dot Map@100
185
+ license: apache-2.0
186
+ base_model:
187
+ - BAAI/bge-m3
188
+ ---
189
+
190
+
191
+ <img src="https://cdn-uploads.huggingface.co/production/uploads/642b0c2fecec03b4464a1d9b/IxcqY5qbGNuGpqDciIcOI.webp" width="600">
192
+
193
+
194
+ # SentenceTransformer
195
+
196
+ This is a [sentence-transformers](https://www.SBERT.net) model trained on the train_set dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
197
+
198
+ ## Model Details
199
+
200
+ - Learning other languages ​​besides Chinese and English is insufficient, so additional learning is needed to optimize use of other languages.
201
+ - This model is additionally trained on the Korean dataset.
202
+
203
+ ### Model Description
204
+ - **Model Type:** Sentence Transformer
205
+ Transformer Encoder
206
+ - **Maximum Sequence Length:** 8192 tokens
207
+ - **Output Dimensionality:** 1024 tokens
208
+ - **Similarity Function:** Cosine Similarity
209
+
210
+ ### Model Sources
211
+
212
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
213
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
214
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
215
+
216
+ ### Full Model Architecture
217
+
218
+ ```
219
+ SentenceTransformer(
220
+ (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
221
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
222
+ (2): Normalize()
223
+ )
224
+ ```
225
+
226
+ ## Usage
227
+
228
+ ### Direct Usage (Sentence Transformers)
229
+
230
+ First install the Sentence Transformers library:
231
+
232
+ ```bash
233
+ pip install -U sentence-transformers
234
+ ```
235
+
236
+ Then you can load this model and run inference.
237
+ ```python
238
+ from sentence_transformers import SentenceTransformer
239
+
240
+ # Download from the 🤗 Hub
241
+ model = SentenceTransformer("dragonkue/bge-m3-ko")
242
+ # Run inference
243
+ sentences = [
244
+ '수급권자 중 근로 능력이 없는 임산부는 몇 종에 해당하니?',
245
+ '내년부터 저소득층 1세 미만 아동의 \n의료비 부담이 더 낮아진다!\n의료급여제도 개요\n□ (목적) 생활유지 능력이 없거나 생활이 어려운 국민들에게 발생하는 질병, 부상, 출산 등에 대해 국가가 의료서비스 제공\n□ (지원대상) 국민기초생활보장 수급권자, 타 법에 의한 수급권자 등\n\n| 구분 | 국민기초생활보장법에 의한 수급권자 | 국민기초생활보장법 이외의 타 법에 의한 수급권자 |\n| --- | --- | --- |\n| 1종 | ○ 국민기초생활보장 수급권자 중 근로능력이 없는 자만으로 구성된 가구 - 18세 미만, 65세 이상 - 4급 이내 장애인 - 임산부, 병역의무이행자 등 | ○ 이재민(재해구호법) ○ 의상자 및 의사자의 유족○ 국내 입양된 18세 미만 아동○ 국가유공자 및 그 유족․가족○ 국가무형문화재 보유자 및 그 가족○ 새터민(북한이탈주민)과 그 가족○ 5․18 민주화운동 관련자 및 그 유가족○ 노숙인 ※ 행려환자 (의료급여법 시행령) |\n| 2종 | ○ 국민기초생활보장 수급권자 중 근로능력이 있는 가구 | - |\n',
246
+ '이어 이날 오후 1시30분부터 열릴 예정이던 스노보드 여자 슬로프스타일 예선 경기는 연기를 거듭하다 취소됐다. 조직위는 예선 없이 다음 날 결선에서 참가자 27명이 한번에 경기해 순위를 가리기로 했다.',
247
+ ]
248
+ embeddings = model.encode(sentences)
249
+ print(embeddings.shape)
250
+ # [3, 1024]
251
+
252
+ # Get the similarity scores for the embeddings
253
+ similarities = model.similarity(embeddings, embeddings)
254
+ print(similarities.shape)
255
+ # [3, 3]
256
+ ```
257
+
258
+ <!--
259
+ ### Direct Usage (Transformers)
260
+
261
+ <details><summary>Click to see the direct usage in Transformers</summary>
262
+
263
+ </details>
264
+ -->
265
+
266
+ <!--
267
+ ### Downstream Usage (Sentence Transformers)
268
+
269
+ You can finetune this model on your own dataset.
270
+
271
+ <details><summary>Click to expand</summary>
272
+
273
+ </details>
274
+ -->
275
+
276
+ <!--
277
+ ### Out-of-Scope Use
278
+
279
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
280
+ -->
281
+
282
+ ## Evaluation
283
+
284
+ ### Metrics
285
+ - ndcg, mrr, map metrics are metrics that consider ranking, while accuracy, precision, and recall are metrics that do not consider ranking. (Example: When considering ranking for retrieval top 10, different scores are given when the correct document is in 1st place and when it is in 10th place. However, accuracy, precision, and recall scores are the same if they are in the top 10.)
286
+
287
+ #### Information Retrieval
288
+ * Korean Embedding Benchmark is a benchmark with a relatively long 3/4 quantile of string length of 1024
289
+
290
+ ##### Korean Embedding Benchmark with AutoRAG
291
+
292
+ This is a benchmark of Korean embedding models.
293
+ (https://github.com/Marker-Inc-Korea/AutoRAG-example-korean-embedding-benchmark)
294
+
295
+ - Top-k 1
296
+
297
+ | Model name | F1 | Recall | Precision | mAP | mRR | NDCG |
298
+ |---------------------------------------|------------|------------|------------|------------|------------|------------|
299
+ | paraphrase-multilingual-mpnet-base-v2 | 0.3596 | 0.3596 | 0.3596 | 0.3596 | 0.3596 | 0.3596 |
300
+ | KoSimCSE-roberta | 0.4298 | 0.4298 | 0.4298 | 0.4298 | 0.4298 | 0.4298 |
301
+ | Cohere embed-multilingual-v3.0 | 0.3596 | 0.3596 | 0.3596 | 0.3596 | 0.3596 | 0.3596 |
302
+ | openai ada 002 | 0.4737 | 0.4737 | 0.4737 | 0.4737 | 0.4737 | 0.4737 |
303
+ | multilingual-e5-large-instruct | 0.4649 | 0.4649 | 0.4649 | 0.4649 | 0.4649 | 0.4649 |
304
+ | Upstage Embedding | 0.6579 | 0.6579 | 0.6579 | 0.6579 | 0.6579 | 0.6579 |
305
+ | paraphrase-multilingual-MiniLM-L12-v2 | 0.2982 | 0.2982 | 0.2982 | 0.2982 | 0.2982 | 0.2982 |
306
+ | openai_embed_3_small | 0.5439 | 0.5439 | 0.5439 | 0.5439 | 0.5439 | 0.5439 |
307
+ | ko-sroberta-multitask | 0.4211 | 0.4211 | 0.4211 | 0.4211 | 0.4211 | 0.4211 |
308
+ | openai_embed_3_large | 0.6053 | 0.6053 | 0.6053 | 0.6053 | 0.6053 | 0.6053 |
309
+ | KU-HIAI-ONTHEIT-large-v1 | 0.7105 | 0.7105 | 0.7105 | 0.7105 | 0.7105 | 0.7105 |
310
+ | KU-HIAI-ONTHEIT-large-v1.1 | 0.7193 | 0.7193 | 0.7193 | 0.7193 | 0.7193 | 0.7193 |
311
+ | kf-deberta-multitask | 0.4561 | 0.4561 | 0.4561 | 0.4561 | 0.4561 | 0.4561 |
312
+ | gte-multilingual-base | 0.5877 | 0.5877 | 0.5877 | 0.5877 | 0.5877 | 0.5877 |
313
+ | KoE5 | 0.7018 | 0.7018 | 0.7018 | 0.7018 | 0.7018 | 0.7018 |
314
+ | BGE-m3 | 0.6578 | 0.6578 | 0.6578 | 0.6578 | 0.6578 | 0.6578 |
315
+ | bge-m3-korean | 0.5351 | 0.5351 | 0.5351 | 0.5351 | 0.5351 | 0.5351 |
316
+ | **BGE-m3-ko** | **0.7456** | **0.7456** | **0.7456** | **0.7456** | **0.7456** | **0.7456** |
317
+
318
+ - Top-k 3
319
+
320
+ | Model name | F1 | Recall | Precision | mAP | mRR | NDCG |
321
+ |---------------------------------------|------------|------------|------------|------------|------------|------------|
322
+ | paraphrase-multilingual-mpnet-base-v2 | 0.2368 | 0.4737 | 0.1579 | 0.2032 | 0.2032 | 0.2712 |
323
+ | KoSimCSE-roberta | 0.3026 | 0.6053 | 0.2018 | 0.2661 | 0.2661 | 0.3515 |
324
+ | Cohere embed-multilingual-v3.0 | 0.2851 | 0.5702 | 0.1901 | 0.2515 | 0.2515 | 0.3321 |
325
+ | openai ada 002 | 0.3553 | 0.7105 | 0.2368 | 0.3202 | 0.3202 | 0.4186 |
326
+ | multilingual-e5-large-instruct | 0.3333 | 0.6667 | 0.2222 | 0.2909 | 0.2909 | 0.3856 |
327
+ | Upstage Embedding | 0.4211 | 0.8421 | 0.2807 | **0.3509** | **0.3509** | 0.4743 |
328
+ | paraphrase-multilingual-MiniLM-L12-v2 | 0.2061 | 0.4123 | 0.1374 | 0.1740 | 0.1740 | 0.2340 |
329
+ | openai_embed_3_small | 0.3640 | 0.7281 | 0.2427 | 0.3026 | 0.3026 | 0.4097 |
330
+ | ko-sroberta-multitask | 0.2939 | 0.5877 | 0.1959 | 0.2500 | 0.2500 | 0.3351 |
331
+ | openai_embed_3_large | 0.3947 | 0.7895 | 0.2632 | 0.3348 | 0.3348 | 0.4491 |
332
+ | KU-HIAI-ONTHEIT-large-v1 | 0.4386 | 0.8772 | 0.2924 | 0.3421 | 0.3421 | 0.4766 |
333
+ | KU-HIAI-ONTHEIT-large-v1.1 | 0.4430 | 0.8860 | 0.2953 | 0.3406 | 0.3406 | 0.4778 |
334
+ | kf-deberta-multitask | 0.3158 | 0.6316 | 0.2105 | 0.2792 | 0.2792 | 0.3679 |
335
+ | gte-multilingual-base | 0.4035 | 0.8070 | 0.2690 | 0.3450 | 0.3450 | 0.4614 |
336
+ | KoE5 | 0.4254 | 0.8509 | 0.2836 | 0.3173 | 0.3173 | 0.4514 |
337
+ | BGE-m3 | 0.4254 | 0.8508 | 0.2836 | 0.3421 | 0.3421 | 0.4701 |
338
+ | bge-m3-korean | 0.3684 | 0.7368 | 0.2456 | 0.3143 | 0.3143 | 0.4207 |
339
+ | **BGE-m3-ko** | **0.4517** | **0.9035** | **0.3011** | 0.3494 | 0.3494 | **0.4886** |
340
+
341
+ - Top-k 5
342
+
343
+ | Model name | F1 | Recall | Precision | mAP | mRR | NDCG |
344
+ |---------------------------------------|------------|------------|------------|------------|------------|------------|
345
+ | paraphrase-multilingual-mpnet-base-v2 | 0.1813 | 0.5439 | 0.1088 | 0.1575 | 0.1575 | 0.2491 |
346
+ | KoSimCSE-roberta | 0.2164 | 0.6491 | 0.1298 | 0.1751 | 0.1751 | 0.2873 |
347
+ | Cohere embed-multilingual-v3.0 | 0.2076 | 0.6228 | 0.1246 | 0.1640 | 0.1640 | 0.2731 |
348
+ | openai ada 002 | 0.2602 | 0.7807 | 0.1561 | 0.2139 | 0.2139 | 0.3486 |
349
+ | multilingual-e5-large-instruct | 0.2544 | 0.7632 | 0.1526 | 0.2194 | 0.2194 | 0.3487 |
350
+ | Upstage Embedding | 0.2982 | 0.8947 | 0.1789 | **0.2237** | **0.2237** | 0.3822 |
351
+ | paraphrase-multilingual-MiniLM-L12-v2 | 0.1637 | 0.4912 | 0.0982 | 0.1437 | 0.1437 | 0.2264 |
352
+ | openai_embed_3_small | 0.2690 | 0.8070 | 0.1614 | 0.2148 | 0.2148 | 0.3553 |
353
+ | ko-sroberta-multitask | 0.2164 | 0.6491 | 0.1298 | 0.1697 | 0.1697 | 0.2835 |
354
+ | openai_embed_3_large | 0.2807 | 0.8421 | 0.1684 | 0.2088 | 0.2088 | 0.3586 |
355
+ | KU-HIAI-ONTHEIT-large-v1 | 0.3041 | 0.9123 | 0.1825 | 0.2137 | 0.2137 | 0.3783 |
356
+ | KU-HIAI-ONTHEIT-large-v1.1 | **0.3099** | **0.9298** | **0.1860** | 0.2148 | 0.2148 | **0.3834** |
357
+ | kf-deberta-multitask | 0.2281 | 0.6842 | 0.1368 | 0.1724 | 0.1724 | 0.2939 |
358
+ | gte-multilingual-base | 0.2865 | 0.8596 | 0.1719 | 0.2096 | 0.2096 | 0.3637 |
359
+ | KoE5 | 0.2982 | 0.8947 | 0.1789 | 0.2054 | 0.2054 | 0.3678 |
360
+ | BGE-m3 | 0.3041 | 0.9123 | 0.1825 | 0.2193 | 0.2193 | 0.3832 |
361
+ | bge-m3-korean | 0.2661 | 0.7982 | 0.1596 | 0.2116 | 0.2116 | 0.3504 |
362
+ | **BGE-m3-ko** | **0.3099** | **0.9298** | **0.1860** | 0.2098 | 0.2098 | 0.3793 |
363
+
364
+ - Top-k 10
365
+
366
+ | Model name | F1 | Recall | Precision | mAP | mRR | NDCG |
367
+ |---------------------------------------|------------|------------|------------|------------|------------|------------|
368
+ | paraphrase-multilingual-mpnet-base-v2 | 0.1212 | 0.6667 | 0.0667 | **0.1197** | **0.1197** | 0.2382 |
369
+ | KoSimCSE-roberta | 0.1324 | 0.7281 | 0.0728 | 0.1080 | 0.1080 | 0.2411 |
370
+ | Cohere embed-multilingual-v3.0 | 0.1324 | 0.7281 | 0.0728 | 0.1150 | 0.1150 | 0.2473 |
371
+ | openai ada 002 | 0.1563 | 0.8596 | 0.0860 | 0.1051 | 0.1051 | 0.2673 |
372
+ | multilingual-e5-large-instruct | 0.1483 | 0.8158 | 0.0816 | 0.0980 | 0.0980 | 0.2520 |
373
+ | Upstage Embedding | 0.1707 | 0.9386 | 0.0939 | 0.1078 | 0.1078 | 0.2848 |
374
+ | paraphrase-multilingual-MiniLM-L12-v2 | 0.1053 | 0.5789 | 0.0579 | 0.0961 | 0.0961 | 0.2006 |
375
+ | openai_embed_3_small | 0.1547 | 0.8509 | 0.0851 | 0.0984 | 0.0984 | 0.2593 |
376
+ | ko-sroberta-multitask | 0.1276 | 0.7018 | 0.0702 | 0.0986 | 0.0986 | 0.2275 |
377
+ | openai_embed_3_large | 0.1643 | 0.9035 | 0.0904 | 0.1180 | 0.1180 | 0.2855 |
378
+ | KU-HIAI-ONTHEIT-large-v1 | 0.1707 | 0.9386 | 0.0939 | 0.1105 | 0.1105 | 0.2860 |
379
+ | KU-HIAI-ONTHEIT-large-v1.1 | 0.1722 | 0.9474 | 0.0947 | 0.1033 | 0.1033 | 0.2822 |
380
+ | kf-deberta-multitask | 0.1388 | 0.7632 | 0.0763 | 0.1 | 0.1 | 0.2422 |
381
+ | gte-multilingual-base | 0.1675 | 0.9211 | 0.0921 | 0.1066 | 0.1066 | 0.2805 |
382
+ | KoE5 | 0.1675 | 0.9211 | 0.0921 | 0.1011 | 0.1011 | 0.2750 |
383
+ | BGE-m3 | 0.1707 | 0.9386 | 0.0939 | 0.1130 | 0.1130 | 0.2884 |
384
+ | bge-m3-korean | 0.1579 | 0.8684 | 0.0868 | 0.1093 | 0.1093 | 0.2721 |
385
+ | **BGE-m3-ko** | **0.1770** | **0.9736** | **0.0974** | 0.1097 | 0.1097 | **0.2932** |
386
+
387
+
388
+
389
+ #### Information Retrieval
390
+ * Dataset: `miracl-ko` (https://github.com/project-miracl/miracl)
391
+ * miracl benchmark is a benchmark with a relatively short 3/4 quantile of string length of 220 on the Korean Wikidata set.
392
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
393
+
394
+ | Metric | Value |
395
+ |:--------------------|:-----------|
396
+ | cosine_accuracy@1 | 0.6103 |
397
+ | cosine_accuracy@3 | 0.8169 |
398
+ | cosine_accuracy@5 | 0.8732 |
399
+ | cosine_accuracy@10 | 0.9202 |
400
+ | cosine_precision@1 | 0.6103 |
401
+ | cosine_precision@3 | 0.3787 |
402
+ | cosine_precision@5 | 0.2761 |
403
+ | cosine_precision@10 | 0.1728 |
404
+ | cosine_recall@1 | 0.3847 |
405
+ | cosine_recall@3 | 0.5902 |
406
+ | cosine_recall@5 | 0.6794 |
407
+ | cosine_recall@10 | 0.7695 |
408
+ | **cosine_ndcg@10** | **0.6833** |
409
+ | cosine_mrr@10 | 0.7262 |
410
+ | cosine_map@100 | 0.6074 |
411
+ | dot_accuracy@1 | 0.6103 |
412
+ | dot_accuracy@3 | 0.8169 |
413
+ | dot_accuracy@5 | 0.8732 |
414
+ | dot_accuracy@10 | 0.9202 |
415
+ | dot_precision@1 | 0.6103 |
416
+ | dot_precision@3 | 0.3787 |
417
+ | dot_precision@5 | 0.2761 |
418
+ | dot_precision@10 | 0.1728 |
419
+ | dot_recall@1 | 0.3847 |
420
+ | dot_recall@3 | 0.5902 |
421
+ | dot_recall@5 | 0.6794 |
422
+ | dot_recall@10 | 0.7695 |
423
+ | dot_ndcg@10 | 0.6723 |
424
+ | dot_mrr@10 | 0.7262 |
425
+ | dot_map@100 | 0.6074 |
426
+
427
+ ## Bias, Risks and Limitations
428
+
429
+ - Since the evaluation results are different for each domain, it is necessary to compare and evaluate the model in your own domain. In the Miracl benchmark, the evaluation was conducted using the Korean Wikipedia as a corpus, and in this case, the cosine_ndcg@10 score dropped by 0.02 points after learning. However, in the Auto-RAG benchmark, which is a financial domain, the ndcg score increased by 0.09 when it was top 1. This model may be advantageous for use in a specific domain.
430
+ - Also, since the miracl benchmark consists of a corpus of relatively short strings, while the Korean Embedding Benchmark consists of a corpus of longer strings, this model may be more advantageous if the length of the corpus you want to use is long.
431
+
432
+
433
+ ### Training Hyperparameters
434
+ #### Non-Default Hyperparameters
435
+ The batch size was referenced from the following paper: Text Embeddings by Weakly-Supervised Contrastive Pre-training (https://arxiv.org/pdf/2212.03533)
436
+
437
+ - `eval_strategy`: steps
438
+ - `per_device_train_batch_size`: 32768
439
+ - `per_device_eval_batch_size`: 32768
440
+ - `learning_rate`: 3e-05
441
+ - `warmup_ratio`: 0.03333333333333333
442
+ - `fp16`: True
443
+ - `batch_sampler`: no_duplicates
444
+
445
+ #### All Hyperparameters
446
+ <details><summary>Click to expand</summary>
447
+
448
+ - `overwrite_output_dir`: False
449
+ - `do_predict`: False
450
+ - `eval_strategy`: steps
451
+ - `prediction_loss_only`: True
452
+ - `per_device_train_batch_size`: 32768
453
+ - `per_device_eval_batch_size`: 32768
454
+ - `per_gpu_train_batch_size`: None
455
+ - `per_gpu_eval_batch_size`: None
456
+ - `gradient_accumulation_steps`: 1
457
+ - `eval_accumulation_steps`: None
458
+ - `learning_rate`: 3e-05
459
+ - `weight_decay`: 0.0
460
+ - `adam_beta1`: 0.9
461
+ - `adam_beta2`: 0.999
462
+ - `adam_epsilon`: 1e-08
463
+ - `max_grad_norm`: 1.0
464
+ - `num_train_epochs`: 3
465
+ - `max_steps`: -1
466
+ - `lr_scheduler_type`: linear
467
+ - `lr_scheduler_kwargs`: {}
468
+ - `warmup_ratio`: 0.03333333333333333
469
+ - `warmup_steps`: 0
470
+ - `log_level`: passive
471
+ - `log_level_replica`: warning
472
+ - `log_on_each_node`: True
473
+ - `logging_nan_inf_filter`: True
474
+ - `save_safetensors`: True
475
+ - `save_on_each_node`: False
476
+ - `save_only_model`: False
477
+ - `restore_callback_states_from_checkpoint`: False
478
+ - `no_cuda`: False
479
+ - `use_cpu`: False
480
+ - `use_mps_device`: False
481
+ - `seed`: 42
482
+ - `data_seed`: None
483
+ - `jit_mode_eval`: False
484
+ - `use_ipex`: False
485
+ - `bf16`: False
486
+ - `fp16`: True
487
+ - `fp16_opt_level`: O1
488
+ - `half_precision_backend`: auto
489
+ - `bf16_full_eval`: False
490
+ - `fp16_full_eval`: False
491
+ - `tf32`: None
492
+ - `local_rank`: 0
493
+ - `ddp_backend`: None
494
+ - `tpu_num_cores`: None
495
+ - `tpu_metrics_debug`: False
496
+ - `debug`: []
497
+ - `dataloader_drop_last`: True
498
+ - `dataloader_num_workers`: 0
499
+ - `dataloader_prefetch_factor`: None
500
+ - `past_index`: -1
501
+ - `disable_tqdm`: False
502
+ - `remove_unused_columns`: True
503
+ - `label_names`: None
504
+ - `load_best_model_at_end`: False
505
+ - `ignore_data_skip`: False
506
+ - `fsdp`: []
507
+ - `fsdp_min_num_params`: 0
508
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
509
+ - `fsdp_transformer_layer_cls_to_wrap`: None
510
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
511
+ - `deepspeed`: None
512
+ - `label_smoothing_factor`: 0.0
513
+ - `optim`: adamw_torch
514
+ - `optim_args`: None
515
+ - `adafactor`: False
516
+ - `group_by_length`: False
517
+ - `length_column_name`: length
518
+ - `ddp_find_unused_parameters`: None
519
+ - `ddp_bucket_cap_mb`: None
520
+ - `ddp_broadcast_buffers`: False
521
+ - `dataloader_pin_memory`: True
522
+ - `dataloader_persistent_workers`: False
523
+ - `skip_memory_metrics`: True
524
+ - `use_legacy_prediction_loop`: False
525
+ - `push_to_hub`: False
526
+ - `resume_from_checkpoint`: None
527
+ - `hub_model_id`: None
528
+ - `hub_strategy`: every_save
529
+ - `hub_private_repo`: False
530
+ - `hub_always_push`: False
531
+ - `gradient_checkpointing`: False
532
+ - `gradient_checkpointing_kwargs`: None
533
+ - `include_inputs_for_metrics`: False
534
+ - `eval_do_concat_batches`: True
535
+ - `fp16_backend`: auto
536
+ - `push_to_hub_model_id`: None
537
+ - `push_to_hub_organization`: None
538
+ - `mp_parameters`:
539
+ - `auto_find_batch_size`: False
540
+ - `full_determinism`: False
541
+ - `torchdynamo`: None
542
+ - `ray_scope`: last
543
+ - `ddp_timeout`: 1800
544
+ - `torch_compile`: False
545
+ - `torch_compile_backend`: None
546
+ - `torch_compile_mode`: None
547
+ - `dispatch_batches`: None
548
+ - `split_batches`: None
549
+ - `include_tokens_per_second`: False
550
+ - `include_num_input_tokens_seen`: False
551
+ - `neftune_noise_alpha`: None
552
+ - `optim_target_modules`: None
553
+ - `batch_eval_metrics`: False
554
+ - `batch_sampler`: no_duplicates
555
+ - `multi_dataset_batch_sampler`: proportional
556
+
557
+ </details>
558
+
559
+
560
+ ## Citation
561
+
562
+ ### BibTeX
563
+
564
+ #### Sentence Transformers
565
+ ```bibtex
566
+ @inproceedings{reimers-2019-sentence-bert,
567
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
568
+ author = "Reimers, Nils and Gurevych, Iryna",
569
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
570
+ month = "11",
571
+ year = "2019",
572
+ publisher = "Association for Computational Linguistics",
573
+ url = "https://arxiv.org/abs/1908.10084",
574
+ }
575
+ ```
576
+ ```bibtex
577
+ @misc{bge-m3,
578
+ title={BGE M3-Embedding: Multi-Lingual, Multi-Functionality, Multi-Granularity Text Embeddings Through Self-Knowledge Distillation},
579
+ author={Jianlv Chen and Shitao Xiao and Peitian Zhang and Kun Luo and Defu Lian and Zheng Liu},
580
+ year={2024},
581
+ eprint={2402.03216},
582
+ archivePrefix={arXiv},
583
+ primaryClass={cs.CL}
584
+ }
585
+ ```
586
+ ```bibtex
587
+ @article{wang2022text,
588
+ title={Text Embeddings by Weakly-Supervised Contrastive Pre-training},
589
+ author={Wang, Liang and Yang, Nan and Huang, Xiaolong and Jiao, Binxing and Yang, Linjun and Jiang, Daxin and Majumder, Rangan and Wei, Furu},
590
+ journal={arXiv preprint arXiv:2212.03533},
591
+ year={2022}
592
+ }
593
+ ```
594
+
595
+ <!--
596
+ ## Glossary
597
+
598
+ *Clearly define terms in order to be accessible across audiences.*
599
+ -->
600
+
601
+ <!--
602
+ ## Model Card Authors
603
+
604
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
605
+ -->
606
+
607
+ <!--
608
+ ## Model Card Contact
609
+
610
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
611
+ -->
config.json ADDED
@@ -0,0 +1,30 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_attn_implementation_autoset": true,
3
+ "_name_or_path": "dragonkue/BGE-m3-ko",
4
+ "architectures": [
5
+ "XLMRobertaModel"
6
+ ],
7
+ "attention_probs_dropout_prob": 0.1,
8
+ "bos_token_id": 0,
9
+ "classifier_dropout": null,
10
+ "eos_token_id": 2,
11
+ "export_model_type": "transformer",
12
+ "hidden_act": "gelu",
13
+ "hidden_dropout_prob": 0.1,
14
+ "hidden_size": 1024,
15
+ "initializer_range": 0.02,
16
+ "intermediate_size": 4096,
17
+ "layer_norm_eps": 1e-05,
18
+ "max_position_embeddings": 8194,
19
+ "model_type": "xlm-roberta",
20
+ "num_attention_heads": 16,
21
+ "num_hidden_layers": 24,
22
+ "output_past": true,
23
+ "pad_token_id": 1,
24
+ "position_embedding_type": "absolute",
25
+ "torch_dtype": "float32",
26
+ "transformers_version": "4.49.0",
27
+ "type_vocab_size": 1,
28
+ "use_cache": true,
29
+ "vocab_size": 250002
30
+ }
onnx/model.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:8ae6aca853bb117b4da223fbb99e87d11bb0312811ac055eb70cfeffb93f646f
3
+ size 702288
onnx/model.onnx_data ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:8e21889d49acac6e68183a2b14eeebaf5828094c5381e402773c71200839b126
3
+ size 2266886160
onnx/model_bnb4.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:bb6718bbc2cc02ca0ef81ecce3aa1d61295497301b4a3996ce78a03b528705aa
3
+ size 1229495915
onnx/model_fp16.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f80aee34d47cfa146d091c36a58a7f82372c1d80a8a90b68ca0077c9ada6c81b
3
+ size 1134153986
onnx/model_int8.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:4d35d591f322ce3059603ad1293bc5b221cb4203fce9ed28ebe4bc2b50828e7f
3
+ size 569721983
onnx/model_q4.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:2cd60e2bb4a476785cbcc013f24a59a1101bf89d247c7fed8f090e456810d900
3
+ size 1248369107
onnx/model_q4f16.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f076a593cdf0366902aa5370308ca9244b6113efc59fc5888f9190855c80acd0
3
+ size 700064685
onnx/model_quantized.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:4d35d591f322ce3059603ad1293bc5b221cb4203fce9ed28ebe4bc2b50828e7f
3
+ size 569721983
onnx/model_uint8.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1090b730c6bdd05cafed4e000f62534c94cca5ec815a554f32c0c0fb094bc7d7
3
+ size 569721983
quantize_config.json ADDED
@@ -0,0 +1,18 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "modes": [
3
+ "fp16",
4
+ "q8",
5
+ "int8",
6
+ "uint8",
7
+ "q4",
8
+ "q4f16",
9
+ "bnb4"
10
+ ],
11
+ "per_channel": true,
12
+ "reduce_range": true,
13
+ "block_size": null,
14
+ "is_symmetric": true,
15
+ "accuracy_level": null,
16
+ "quant_type": 1,
17
+ "op_block_list": null
18
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6e3b8957de04e3a4ed42b1a11381556f9adad8d0d502b9dd071c75f626b28f40
3
+ size 17083053
tokenizer_config.json ADDED
@@ -0,0 +1,63 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "max_length": 1024,
51
+ "model_max_length": 1024,
52
+ "pad_to_multiple_of": null,
53
+ "pad_token": "<pad>",
54
+ "pad_token_type_id": 0,
55
+ "padding_side": "right",
56
+ "sep_token": "</s>",
57
+ "sp_model_kwargs": {},
58
+ "stride": 0,
59
+ "tokenizer_class": "XLMRobertaTokenizerFast",
60
+ "truncation_side": "right",
61
+ "truncation_strategy": "longest_first",
62
+ "unk_token": "<unk>"
63
+ }