metadata
language:
- en
license: apache-2.0
tags:
- sentence-transformers
- sparse-encoder
- sparse
- splade
- generated_from_trainer
- dataset_size:483497
- loss:SpladeLoss
- loss:SparseMarginMSELoss
- loss:FlopsLoss
base_model: almanach/camembert-base
widget:
- text: lequel des muscles abdominaux est le plus superficiel
- text: les systèmes pos ont-ils besoin d'internet
- text: >-
L'indice de stress météorologique, ou WSI, est une mesure relative des
conditions météorologiques, souvent utilisée comme indicateur de confort.
L'indice, un nombre compris entre 0 et 100, représente le pourcentage de
temps passé avec des températures inférieures à la température actuelle,
pour un lieu, un jour et une heure donnés.
- text: comment rendre les planchers de sous-sol lisses
- text: >-
De quelle couleur est le sang. Le sang veineux (sauf dans les veines
pulmonaires) est pauvre en oxygène, de sorte que l'hémoglobine donne au
sang une couleur rouge foncé. Une fois que le sang a traversé les lits
capillaires des poumons, le sang sera rouge vif avec l'hémoglobine saturée
d'oxygène gazeux.
datasets:
- arthurbresnu/msmarco-Qwen3-Reranker-0.6B-french
pipeline_tag: feature-extraction
library_name: sentence-transformers
metrics:
- dot_accuracy@1
- dot_accuracy@3
- dot_accuracy@5
- dot_accuracy@10
- dot_precision@1
- dot_precision@3
- dot_precision@5
- dot_precision@10
- dot_recall@1
- dot_recall@3
- dot_recall@5
- dot_recall@10
- dot_ndcg@10
- dot_mrr@10
- dot_map@100
- query_active_dims
- query_sparsity_ratio
- corpus_active_dims
- corpus_sparsity_ratio
- pearson_cosine
- spearman_cosine
- active_dims
- sparsity_ratio
model-index:
- name: splade-camembert-base-v2
results:
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchMSMARCO
type: NanoFrenchMSMARCO
metrics:
- type: dot_accuracy@1
value: 0.4
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.62
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.66
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.68
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.4
name: Dot Precision@1
- type: dot_precision@3
value: 0.20666666666666667
name: Dot Precision@3
- type: dot_precision@5
value: 0.132
name: Dot Precision@5
- type: dot_precision@10
value: 0.068
name: Dot Precision@10
- type: dot_recall@1
value: 0.4
name: Dot Recall@1
- type: dot_recall@3
value: 0.62
name: Dot Recall@3
- type: dot_recall@5
value: 0.66
name: Dot Recall@5
- type: dot_recall@10
value: 0.68
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.5487288244014004
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.5051904761904762
name: Dot Mrr@10
- type: dot_map@100
value: 0.5176557143917097
name: Dot Map@100
- type: query_active_dims
value: 77.26000213623047
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9975860021204115
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 298
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9906889548508045
name: Corpus Sparsity Ratio
- type: dot_accuracy@1
value: 0.4
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.62
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.66
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.68
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.4
name: Dot Precision@1
- type: dot_precision@3
value: 0.20666666666666667
name: Dot Precision@3
- type: dot_precision@5
value: 0.132
name: Dot Precision@5
- type: dot_precision@10
value: 0.068
name: Dot Precision@10
- type: dot_recall@1
value: 0.4
name: Dot Recall@1
- type: dot_recall@3
value: 0.62
name: Dot Recall@3
- type: dot_recall@5
value: 0.66
name: Dot Recall@5
- type: dot_recall@10
value: 0.68
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.5487288244014004
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.5051904761904762
name: Dot Mrr@10
- type: dot_map@100
value: 0.5176557143917097
name: Dot Map@100
- type: query_active_dims
value: 77.26000213623047
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9975860021204115
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 298
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9906889548508045
name: Corpus Sparsity Ratio
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchNFCorpus
type: NanoFrenchNFCorpus
metrics:
- type: dot_accuracy@1
value: 0.44
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.54
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.58
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.64
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.44
name: Dot Precision@1
- type: dot_precision@3
value: 0.3466666666666666
name: Dot Precision@3
- type: dot_precision@5
value: 0.316
name: Dot Precision@5
- type: dot_precision@10
value: 0.264
name: Dot Precision@10
- type: dot_recall@1
value: 0.02577828179531134
name: Dot Recall@1
- type: dot_recall@3
value: 0.0766153768965388
name: Dot Recall@3
- type: dot_recall@5
value: 0.09309313541500976
name: Dot Recall@5
- type: dot_recall@10
value: 0.13708035675751643
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.3225218322142165
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.5012222222222222
name: Dot Mrr@10
- type: dot_map@100
value: 0.1332435842079396
name: Dot Map@100
- type: query_active_dims
value: 73.33999633789062
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9977084831639466
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 394.8157653808594
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9876639348420292
name: Corpus Sparsity Ratio
- type: dot_accuracy@1
value: 0.44
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.54
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.58
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.64
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.44
name: Dot Precision@1
- type: dot_precision@3
value: 0.3466666666666666
name: Dot Precision@3
- type: dot_precision@5
value: 0.316
name: Dot Precision@5
- type: dot_precision@10
value: 0.264
name: Dot Precision@10
- type: dot_recall@1
value: 0.02577828179531134
name: Dot Recall@1
- type: dot_recall@3
value: 0.0766153768965388
name: Dot Recall@3
- type: dot_recall@5
value: 0.09309313541500976
name: Dot Recall@5
- type: dot_recall@10
value: 0.13708035675751643
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.3225218322142165
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.5012222222222222
name: Dot Mrr@10
- type: dot_map@100
value: 0.1332435842079396
name: Dot Map@100
- type: query_active_dims
value: 73.33999633789062
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9977084831639466
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 394.8157653808594
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9876639348420292
name: Corpus Sparsity Ratio
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchNQ
type: NanoFrenchNQ
metrics:
- type: dot_accuracy@1
value: 0.34
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.58
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.64
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.8
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.34
name: Dot Precision@1
- type: dot_precision@3
value: 0.2
name: Dot Precision@3
- type: dot_precision@5
value: 0.132
name: Dot Precision@5
- type: dot_precision@10
value: 0.086
name: Dot Precision@10
- type: dot_recall@1
value: 0.32
name: Dot Recall@1
- type: dot_recall@3
value: 0.56
name: Dot Recall@3
- type: dot_recall@5
value: 0.62
name: Dot Recall@5
- type: dot_recall@10
value: 0.78
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.5472154919006786
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.4835555555555556
name: Dot Mrr@10
- type: dot_map@100
value: 0.47481172343545563
name: Dot Map@100
- type: query_active_dims
value: 98.5199966430664
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9969217310844223
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 437.0276184082031
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9863450205152882
name: Corpus Sparsity Ratio
- type: dot_accuracy@1
value: 0.34
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.58
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.64
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.8
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.34
name: Dot Precision@1
- type: dot_precision@3
value: 0.2
name: Dot Precision@3
- type: dot_precision@5
value: 0.132
name: Dot Precision@5
- type: dot_precision@10
value: 0.086
name: Dot Precision@10
- type: dot_recall@1
value: 0.32
name: Dot Recall@1
- type: dot_recall@3
value: 0.56
name: Dot Recall@3
- type: dot_recall@5
value: 0.62
name: Dot Recall@5
- type: dot_recall@10
value: 0.78
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.5472154919006786
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.4835555555555556
name: Dot Mrr@10
- type: dot_map@100
value: 0.47481172343545563
name: Dot Map@100
- type: query_active_dims
value: 98.5199966430664
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9969217310844223
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 437.0276184082031
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9863450205152882
name: Corpus Sparsity Ratio
- task:
type: sparse-nano-beir
name: Sparse Nano BEIR
dataset:
name: FrenchNanoBEIR mean
type: FrenchNanoBEIR_mean
metrics:
- type: dot_accuracy@1
value: 0.39333333333333337
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.5800000000000001
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.6266666666666666
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.7066666666666667
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.39333333333333337
name: Dot Precision@1
- type: dot_precision@3
value: 0.25111111111111106
name: Dot Precision@3
- type: dot_precision@5
value: 0.19333333333333336
name: Dot Precision@5
- type: dot_precision@10
value: 0.13933333333333334
name: Dot Precision@10
- type: dot_recall@1
value: 0.24859276059843713
name: Dot Recall@1
- type: dot_recall@3
value: 0.4188717922988463
name: Dot Recall@3
- type: dot_recall@5
value: 0.45769771180500324
name: Dot Recall@5
- type: dot_recall@10
value: 0.5323601189191721
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.47282204950543183
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.49665608465608474
name: Dot Mrr@10
- type: dot_map@100
value: 0.3752370073450349
name: Dot Map@100
- type: query_active_dims
value: 83.03999837239583
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.99740540545626
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 373.65812400084263
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9883250078424983
name: Corpus Sparsity Ratio
- type: dot_accuracy@1
value: 0.47949764521193095
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.6627943485086342
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.727535321821036
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.7953218210361067
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.47949764521193095
name: Dot Precision@1
- type: dot_precision@3
value: 0.30499215070643637
name: Dot Precision@3
- type: dot_precision@5
value: 0.24266248037676613
name: Dot Precision@5
- type: dot_precision@10
value: 0.16882574568288852
name: Dot Precision@10
- type: dot_recall@1
value: 0.26670856435588125
name: Dot Recall@1
- type: dot_recall@3
value: 0.4282885404370514
name: Dot Recall@3
- type: dot_recall@5
value: 0.499795198759944
name: Dot Recall@5
- type: dot_recall@10
value: 0.5709334706959734
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.5259555693341457
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.5873394383394384
name: Dot Mrr@10
- type: dot_map@100
value: 0.4458710440498525
name: Dot Map@100
- type: query_active_dims
value: 159.09861301604332
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9950289450705814
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 383.2424979423813
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9880255429482149
name: Corpus Sparsity Ratio
- task:
type: semantic-similarity
name: Semantic Similarity
dataset:
name: frenchSTS dev
type: frenchSTS-dev
metrics:
- type: pearson_cosine
value: 0.7101511628296028
name: Pearson Cosine
- type: spearman_cosine
value: 0.6754813201965588
name: Spearman Cosine
- type: active_dims
value: 133.32061767578125
name: Active Dims
- type: sparsity_ratio
value: 0.9958343815755106
name: Sparsity Ratio
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchClimateFEVER
type: NanoFrenchClimateFEVER
metrics:
- type: dot_accuracy@1
value: 0.22
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.32
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.38
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.5
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.22
name: Dot Precision@1
- type: dot_precision@3
value: 0.11333333333333333
name: Dot Precision@3
- type: dot_precision@5
value: 0.092
name: Dot Precision@5
- type: dot_precision@10
value: 0.05800000000000001
name: Dot Precision@10
- type: dot_recall@1
value: 0.07666666666666666
name: Dot Recall@1
- type: dot_recall@3
value: 0.13899999999999998
name: Dot Recall@3
- type: dot_recall@5
value: 0.17233333333333334
name: Dot Recall@5
- type: dot_recall@10
value: 0.23233333333333328
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.18687676319497717
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.2833333333333334
name: Dot Mrr@10
- type: dot_map@100
value: 0.14400742728951835
name: Dot Map@100
- type: query_active_dims
value: 274.0400085449219
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9914375876099072
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 394.4275207519531
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9876760655912529
name: Corpus Sparsity Ratio
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchDBPedia
type: NanoFrenchDBPedia
metrics:
- type: dot_accuracy@1
value: 0.64
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.84
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.88
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.94
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.64
name: Dot Precision@1
- type: dot_precision@3
value: 0.52
name: Dot Precision@3
- type: dot_precision@5
value: 0.49599999999999994
name: Dot Precision@5
- type: dot_precision@10
value: 0.46
name: Dot Precision@10
- type: dot_recall@1
value: 0.0765713603517939
name: Dot Recall@1
- type: dot_recall@3
value: 0.14536701580253766
name: Dot Recall@3
- type: dot_recall@5
value: 0.19759969138599906
name: Dot Recall@5
- type: dot_recall@10
value: 0.31130507264938984
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.558948570162363
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.753857142857143
name: Dot Mrr@10
- type: dot_map@100
value: 0.4080074260649036
name: Dot Map@100
- type: query_active_dims
value: 93.37999725341797
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9970823309716164
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 405.4115905761719
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9873328670340206
name: Corpus Sparsity Ratio
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchFEVER
type: NanoFrenchFEVER
metrics:
- type: dot_accuracy@1
value: 0.6
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.8
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.88
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.94
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.6
name: Dot Precision@1
- type: dot_precision@3
value: 0.27999999999999997
name: Dot Precision@3
- type: dot_precision@5
value: 0.18799999999999997
name: Dot Precision@5
- type: dot_precision@10
value: 0.1
name: Dot Precision@10
- type: dot_recall@1
value: 0.56
name: Dot Recall@1
- type: dot_recall@3
value: 0.7666666666666667
name: Dot Recall@3
- type: dot_recall@5
value: 0.8533333333333333
name: Dot Recall@5
- type: dot_recall@10
value: 0.9133333333333333
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.7544730137752673
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.7204999999999999
name: Dot Mrr@10
- type: dot_map@100
value: 0.6973668563300143
name: Dot Map@100
- type: query_active_dims
value: 232.74000549316406
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9927280110766079
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 552.6309204101562
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9827329817087906
name: Corpus Sparsity Ratio
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchFiQA2018
type: NanoFrenchFiQA2018
metrics:
- type: dot_accuracy@1
value: 0.4
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.58
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.66
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.7
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.4
name: Dot Precision@1
- type: dot_precision@3
value: 0.2533333333333333
name: Dot Precision@3
- type: dot_precision@5
value: 0.196
name: Dot Precision@5
- type: dot_precision@10
value: 0.11599999999999999
name: Dot Precision@10
- type: dot_recall@1
value: 0.2220793650793651
name: Dot Recall@1
- type: dot_recall@3
value: 0.4001269841269841
name: Dot Recall@3
- type: dot_recall@5
value: 0.4880634920634921
name: Dot Recall@5
- type: dot_recall@10
value: 0.5473968253968254
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.45150953973275976
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.5061904761904761
name: Dot Mrr@10
- type: dot_map@100
value: 0.38642893054840416
name: Dot Map@100
- type: query_active_dims
value: 83.33999633789062
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9973960319844434
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 365.366455078125
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9885840820159936
name: Corpus Sparsity Ratio
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchHotpotQA
type: NanoFrenchHotpotQA
metrics:
- type: dot_accuracy@1
value: 0.84
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.9
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.96
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.96
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.84
name: Dot Precision@1
- type: dot_precision@3
value: 0.44666666666666655
name: Dot Precision@3
- type: dot_precision@5
value: 0.308
name: Dot Precision@5
- type: dot_precision@10
value: 0.15799999999999997
name: Dot Precision@10
- type: dot_recall@1
value: 0.42
name: Dot Recall@1
- type: dot_recall@3
value: 0.67
name: Dot Recall@3
- type: dot_recall@5
value: 0.77
name: Dot Recall@5
- type: dot_recall@10
value: 0.79
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.7587742376370855
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.883
name: Dot Mrr@10
- type: dot_map@100
value: 0.6943018887917117
name: Dot Map@100
- type: query_active_dims
value: 174.55999755859375
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9945458522868741
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 457.9277038574219
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9856919948802556
name: Corpus Sparsity Ratio
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchQuoraRetrieval
type: NanoFrenchQuoraRetrieval
metrics:
- type: dot_accuracy@1
value: 0.68
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.84
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.86
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.96
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.68
name: Dot Precision@1
- type: dot_precision@3
value: 0.32
name: Dot Precision@3
- type: dot_precision@5
value: 0.204
name: Dot Precision@5
- type: dot_precision@10
value: 0.11999999999999997
name: Dot Precision@10
- type: dot_recall@1
value: 0.614
name: Dot Recall@1
- type: dot_recall@3
value: 0.7813333333333332
name: Dot Recall@3
- type: dot_recall@5
value: 0.8213333333333332
name: Dot Recall@5
- type: dot_recall@10
value: 0.922
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.8002355551906908
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.7788809523809525
name: Dot Mrr@10
- type: dot_map@100
value: 0.7529203777703778
name: Dot Map@100
- type: query_active_dims
value: 85.0999984741211
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.997341040510104
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 85.09552001953125
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9973411804399459
name: Corpus Sparsity Ratio
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchSCIDOCS
type: NanoFrenchSCIDOCS
metrics:
- type: dot_accuracy@1
value: 0.36
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.66
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.68
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.78
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.36
name: Dot Precision@1
- type: dot_precision@3
value: 0.32
name: Dot Precision@3
- type: dot_precision@5
value: 0.264
name: Dot Precision@5
- type: dot_precision@10
value: 0.17
name: Dot Precision@10
- type: dot_recall@1
value: 0.07566666666666667
name: Dot Recall@1
- type: dot_recall@3
value: 0.19666666666666666
name: Dot Recall@3
- type: dot_recall@5
value: 0.26866666666666666
name: Dot Recall@5
- type: dot_recall@10
value: 0.3456666666666667
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.33239022080578207
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.5092460317460317
name: Dot Mrr@10
- type: dot_map@100
value: 0.24630913518054653
name: Dot Map@100
- type: query_active_dims
value: 110.76000213623047
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9965392906690758
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 370.2797546386719
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.988430565391699
name: Corpus Sparsity Ratio
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchArguAna
type: NanoFrenchArguAna
metrics:
- type: dot_accuracy@1
value: 0.08
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.4
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.52
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.62
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.08
name: Dot Precision@1
- type: dot_precision@3
value: 0.13333333333333333
name: Dot Precision@3
- type: dot_precision@5
value: 0.10400000000000002
name: Dot Precision@5
- type: dot_precision@10
value: 0.06200000000000001
name: Dot Precision@10
- type: dot_recall@1
value: 0.08
name: Dot Recall@1
- type: dot_recall@3
value: 0.4
name: Dot Recall@3
- type: dot_recall@5
value: 0.52
name: Dot Recall@5
- type: dot_recall@10
value: 0.62
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.3593759424597492
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.27510317460317457
name: Dot Mrr@10
- type: dot_map@100
value: 0.2883118098204748
name: Dot Map@100
- type: query_active_dims
value: 477.1199951171875
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9850923294761073
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 445.5865173339844
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9860775967088272
name: Corpus Sparsity Ratio
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchSciFact
type: NanoFrenchSciFact
metrics:
- type: dot_accuracy@1
value: 0.56
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.72
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.86
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.86
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.56
name: Dot Precision@1
- type: dot_precision@3
value: 0.24666666666666665
name: Dot Precision@3
- type: dot_precision@5
value: 0.19199999999999995
name: Dot Precision@5
- type: dot_precision@10
value: 0.09599999999999997
name: Dot Precision@10
- type: dot_recall@1
value: 0.55
name: Dot Recall@1
- type: dot_recall@3
value: 0.69
name: Dot Recall@3
- type: dot_recall@5
value: 0.85
name: Dot Recall@5
- type: dot_recall@10
value: 0.85
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.7132016159946913
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.6686666666666667
name: Dot Mrr@10
- type: dot_map@100
value: 0.6686620370370371
name: Dot Map@100
- type: query_active_dims
value: 214.63999938964844
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9932935479022138
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 387.93011474609375
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.9878790778082771
name: Corpus Sparsity Ratio
- task:
type: sparse-information-retrieval
name: Sparse Information Retrieval
dataset:
name: NanoFrenchTouche2020
type: NanoFrenchTouche2020
metrics:
- type: dot_accuracy@1
value: 0.673469387755102
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.8163265306122449
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.8979591836734694
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.9591836734693877
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.673469387755102
name: Dot Precision@1
- type: dot_precision@3
value: 0.5782312925170068
name: Dot Precision@3
- type: dot_precision@5
value: 0.5306122448979592
name: Dot Precision@5
- type: dot_precision@10
value: 0.43673469387755104
name: Dot Precision@10
- type: dot_recall@1
value: 0.046448996066652044
name: Dot Recall@1
- type: dot_recall@3
value: 0.12197498218894152
name: Dot Recall@3
- type: dot_recall@5
value: 0.18291459834810544
name: Dot Recall@5
- type: dot_recall@10
value: 0.2930195309105904
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.5031707938742329
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.7666666666666666
name: Dot Mrr@10
- type: dot_map@100
value: 0.38429666177998884
name: Dot Map@100
- type: query_active_dims
value: 71.73469543457031
name: Query Active Dims
- type: query_sparsity_ratio
value: 0.9977586409800165
name: Query Sparsity Ratio
- type: corpus_active_dims
value: 400.0217590332031
name: Corpus Active Dims
- type: corpus_sparsity_ratio
value: 0.987501272956313
name: Corpus Sparsity Ratio
splade-camembert-base-v2
This is a SPLADE Sparse Encoder model finetuned from almanach/camembert-base on the msmarco-qwen3-reranker-0.6_b-french dataset using the sentence-transformers library. It maps sentences & paragraphs to a 32005-dimensional sparse vector space and can be used for semantic search and sparse retrieval.
Model Details
Model Description
- Model Type: SPLADE Sparse Encoder
- Base model: almanach/camembert-base
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 32005 dimensions
- Similarity Function: Dot Product
- Training Dataset:
- Language: en
- License: apache-2.0
Model Sources
- Documentation: Sentence Transformers Documentation
- Documentation: Sparse Encoder Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sparse Encoders on Hugging Face
Full Model Architecture
SparseEncoder(
(0): MLMTransformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'CamembertForMaskedLM'})
(1): SpladePooling({'pooling_strategy': 'max', 'activation_function': 'relu', 'word_embedding_dimension': 32005})
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SparseEncoder
# Download from the 🤗 Hub
model = SparseEncoder("arthurbresnu/splade-camembert-base-v2")
# Run inference
queries = [
"quel poison rend le sang rouge vif ?",
]
documents = [
"La décoloration rouge cerise de la peau et des muqueuses est un signe souvent cité d'intoxication au monoxyde de carbone (CO)x1Les dangers du monoxyde de carbone. N Engl J Med. 1995\xa0; 332\xa0:\xa0894.",
"SDStaff Hawk répond : Le sang est d'un rouge vif sous sa forme oxygénée (c'est-à-dire quittant les poumons), lorsque l'hémoglobine est liée à l'oxygène pour former l'oxyhémoglobine. C'est un rouge foncé sous sa forme désoxygénée (c'est-à-dire qui retourne aux poumons), lorsque l'hémoglobine est liée au dioxyde de carbone pour former la carboxyhémoglobine. Les veines apparaissent bleues parce que la lumière, pénétrant la peau, est absorbée et réfléchie vers l'œil. Étant donné que seules les longueurs d'onde d'énergie plus élevée peuvent le faire (les longueurs d'onde d'énergie plus faible n'ont tout simplement pas le *oomph*), seules les longueurs d'onde d'énergie plus élevées sont vues.",
'Les couleurs vives et accrocheuses de la grenouille venimeuse – les nuances de bleu, rouge, orange, jaune, vert et noir – sont également une forme de protection.',
]
query_embeddings = model.encode_query(queries)
document_embeddings = model.encode_document(documents)
print(query_embeddings.shape, document_embeddings.shape)
# [1, 32005] [3, 32005]
# Get the similarity scores for the embeddings
similarities = model.similarity(query_embeddings, document_embeddings)
print(similarities)
# tensor([[ 6.4400, 11.8569, 7.6198]])
Evaluation
Metrics
Sparse Information Retrieval
- Datasets:
NanoFrenchMSMARCO
,NanoFrenchNFCorpus
,NanoFrenchNQ
,NanoFrenchClimateFEVER
,NanoFrenchDBPedia
,NanoFrenchFEVER
,NanoFrenchFiQA2018
,NanoFrenchHotpotQA
,NanoFrenchMSMARCO
,NanoFrenchNFCorpus
,NanoFrenchNQ
,NanoFrenchQuoraRetrieval
,NanoFrenchSCIDOCS
,NanoFrenchArguAna
,NanoFrenchSciFact
andNanoFrenchTouche2020
- Evaluated with
SparseInformationRetrievalEvaluator
Metric | NanoFrenchMSMARCO | NanoFrenchNFCorpus | NanoFrenchNQ | NanoFrenchClimateFEVER | NanoFrenchDBPedia | NanoFrenchFEVER | NanoFrenchFiQA2018 | NanoFrenchHotpotQA | NanoFrenchQuoraRetrieval | NanoFrenchSCIDOCS | NanoFrenchArguAna | NanoFrenchSciFact | NanoFrenchTouche2020 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
dot_accuracy@1 | 0.4 | 0.44 | 0.34 | 0.22 | 0.64 | 0.6 | 0.4 | 0.84 | 0.68 | 0.36 | 0.08 | 0.56 | 0.6735 |
dot_accuracy@3 | 0.62 | 0.54 | 0.58 | 0.32 | 0.84 | 0.8 | 0.58 | 0.9 | 0.84 | 0.66 | 0.4 | 0.72 | 0.8163 |
dot_accuracy@5 | 0.66 | 0.58 | 0.64 | 0.38 | 0.88 | 0.88 | 0.66 | 0.96 | 0.86 | 0.68 | 0.52 | 0.86 | 0.898 |
dot_accuracy@10 | 0.68 | 0.64 | 0.8 | 0.5 | 0.94 | 0.94 | 0.7 | 0.96 | 0.96 | 0.78 | 0.62 | 0.86 | 0.9592 |
dot_precision@1 | 0.4 | 0.44 | 0.34 | 0.22 | 0.64 | 0.6 | 0.4 | 0.84 | 0.68 | 0.36 | 0.08 | 0.56 | 0.6735 |
dot_precision@3 | 0.2067 | 0.3467 | 0.2 | 0.1133 | 0.52 | 0.28 | 0.2533 | 0.4467 | 0.32 | 0.32 | 0.1333 | 0.2467 | 0.5782 |
dot_precision@5 | 0.132 | 0.316 | 0.132 | 0.092 | 0.496 | 0.188 | 0.196 | 0.308 | 0.204 | 0.264 | 0.104 | 0.192 | 0.5306 |
dot_precision@10 | 0.068 | 0.264 | 0.086 | 0.058 | 0.46 | 0.1 | 0.116 | 0.158 | 0.12 | 0.17 | 0.062 | 0.096 | 0.4367 |
dot_recall@1 | 0.4 | 0.0258 | 0.32 | 0.0767 | 0.0766 | 0.56 | 0.2221 | 0.42 | 0.614 | 0.0757 | 0.08 | 0.55 | 0.0464 |
dot_recall@3 | 0.62 | 0.0766 | 0.56 | 0.139 | 0.1454 | 0.7667 | 0.4001 | 0.67 | 0.7813 | 0.1967 | 0.4 | 0.69 | 0.122 |
dot_recall@5 | 0.66 | 0.0931 | 0.62 | 0.1723 | 0.1976 | 0.8533 | 0.4881 | 0.77 | 0.8213 | 0.2687 | 0.52 | 0.85 | 0.1829 |
dot_recall@10 | 0.68 | 0.1371 | 0.78 | 0.2323 | 0.3113 | 0.9133 | 0.5474 | 0.79 | 0.922 | 0.3457 | 0.62 | 0.85 | 0.293 |
dot_ndcg@10 | 0.5487 | 0.3225 | 0.5472 | 0.1869 | 0.5589 | 0.7545 | 0.4515 | 0.7588 | 0.8002 | 0.3324 | 0.3594 | 0.7132 | 0.5032 |
dot_mrr@10 | 0.5052 | 0.5012 | 0.4836 | 0.2833 | 0.7539 | 0.7205 | 0.5062 | 0.883 | 0.7789 | 0.5092 | 0.2751 | 0.6687 | 0.7667 |
dot_map@100 | 0.5177 | 0.1332 | 0.4748 | 0.144 | 0.408 | 0.6974 | 0.3864 | 0.6943 | 0.7529 | 0.2463 | 0.2883 | 0.6687 | 0.3843 |
query_active_dims | 77.26 | 73.34 | 98.52 | 274.04 | 93.38 | 232.74 | 83.34 | 174.56 | 85.1 | 110.76 | 477.12 | 214.64 | 71.7347 |
query_sparsity_ratio | 0.9976 | 0.9977 | 0.9969 | 0.9914 | 0.9971 | 0.9927 | 0.9974 | 0.9945 | 0.9973 | 0.9965 | 0.9851 | 0.9933 | 0.9978 |
corpus_active_dims | 298.0 | 394.8158 | 437.0276 | 394.4275 | 405.4116 | 552.6309 | 365.3665 | 457.9277 | 85.0955 | 370.2798 | 445.5865 | 387.9301 | 400.0218 |
corpus_sparsity_ratio | 0.9907 | 0.9877 | 0.9863 | 0.9877 | 0.9873 | 0.9827 | 0.9886 | 0.9857 | 0.9973 | 0.9884 | 0.9861 | 0.9879 | 0.9875 |
Sparse Nano BEIR
- Dataset:
FrenchNanoBEIR_mean
- Evaluated with
SparseNanoBEIREvaluator
with these parameters:{ "dataset_names": [ "msmarco", "nfcorpus", "nq" ] }
Metric | Value |
---|---|
dot_accuracy@1 | 0.3933 |
dot_accuracy@3 | 0.58 |
dot_accuracy@5 | 0.6267 |
dot_accuracy@10 | 0.7067 |
dot_precision@1 | 0.3933 |
dot_precision@3 | 0.2511 |
dot_precision@5 | 0.1933 |
dot_precision@10 | 0.1393 |
dot_recall@1 | 0.2486 |
dot_recall@3 | 0.4189 |
dot_recall@5 | 0.4577 |
dot_recall@10 | 0.5324 |
dot_ndcg@10 | 0.4728 |
dot_mrr@10 | 0.4967 |
dot_map@100 | 0.3752 |
query_active_dims | 83.04 |
query_sparsity_ratio | 0.9974 |
corpus_active_dims | 373.6581 |
corpus_sparsity_ratio | 0.9883 |
Semantic Similarity
- Dataset:
frenchSTS-dev
- Evaluated with
SparseEmbeddingSimilarityEvaluator
Metric | Value |
---|---|
pearson_cosine | 0.7102 |
spearman_cosine | 0.6755 |
active_dims | 133.3206 |
sparsity_ratio | 0.9958 |
Sparse Nano BEIR
- Dataset:
FrenchNanoBEIR_mean
- Evaluated with
SparseNanoBEIREvaluator
with these parameters:{ "dataset_names": [ "climatefever", "dbpedia", "fever", "fiqa2018", "hotpotqa", "msmarco", "nfcorpus", "nq", "quoraretrieval", "scidocs", "arguana", "scifact", "touche2020" ] }
Metric | Value |
---|---|
dot_accuracy@1 | 0.4795 |
dot_accuracy@3 | 0.6628 |
dot_accuracy@5 | 0.7275 |
dot_accuracy@10 | 0.7953 |
dot_precision@1 | 0.4795 |
dot_precision@3 | 0.305 |
dot_precision@5 | 0.2427 |
dot_precision@10 | 0.1688 |
dot_recall@1 | 0.2667 |
dot_recall@3 | 0.4283 |
dot_recall@5 | 0.4998 |
dot_recall@10 | 0.5709 |
dot_ndcg@10 | 0.526 |
dot_mrr@10 | 0.5873 |
dot_map@100 | 0.4459 |
query_active_dims | 159.0986 |
query_sparsity_ratio | 0.995 |
corpus_active_dims | 383.2425 |
corpus_sparsity_ratio | 0.988 |
Training Details
Training Dataset
msmarco-qwen3-reranker-0.6_b-french
- Dataset: msmarco-qwen3-reranker-0.6_b-french at 0be06a4
- Size: 483,497 training samples
- Columns:
query
,positive
,negative_1
,negative_2
,negative_3
,negative_4
,negative_5
,negative_6
,negative_7
,negative_8
, andscore
- Approximate statistics based on the first 1000 samples:
query positive negative_1 negative_2 negative_3 negative_4 negative_5 negative_6 negative_7 negative_8 score type string string string string string string string string string string list details - min: 4 tokens
- mean: 11.88 tokens
- max: 57 tokens
- min: 18 tokens
- mean: 97.06 tokens
- max: 342 tokens
- min: 16 tokens
- mean: 82.65 tokens
- max: 383 tokens
- min: 5 tokens
- mean: 84.69 tokens
- max: 264 tokens
- min: 18 tokens
- mean: 84.7 tokens
- max: 404 tokens
- min: 19 tokens
- mean: 86.36 tokens
- max: 407 tokens
- min: 15 tokens
- mean: 86.79 tokens
- max: 286 tokens
- min: 13 tokens
- mean: 86.67 tokens
- max: 320 tokens
- min: 19 tokens
- mean: 88.65 tokens
- max: 288 tokens
- min: 16 tokens
- mean: 85.17 tokens
- max: 230 tokens
- size: 9 elements
- Samples:
query positive negative_1 negative_2 negative_3 negative_4 negative_5 negative_6 negative_7 negative_8 score qu'est-ce que le clomifène
Utilisations de ce médicament. Le clomifène est utilisé comme médicament contre la fertilité chez certaines femmes incapables de devenir enceintes. Le clomifène agit probablement en modifiant l'équilibre hormonal du corps. Chez les femmes, cela provoque l'ovulation et prépare le corps à la grossesse.ses de ce médicament. Le clomifène est utilisé comme médicament contre la fertilité chez certaines femmes incapables de devenir enceintes. Le clomifène agit probablement en modifiant l'équilibre hormonal du corps. Chez les femmes, cela provoque l'ovulation et prépare le corps à la grossesse.
Le citrate de clomifène, une hormone synthétique couramment utilisée pour induire ou réguler l'ovulation, est la pilule de fertilité la plus souvent prescrite. Les noms de marque pour le citrate de clomifène incluent Clomid et Serophene. Le clomifène agit indirectement pour stimuler l'ovulation.
Parfois, le clomifène peut trop stimuler les ovaires, provoquant la libération de plusieurs ovules, ce qui peut entraîner des naissances multiples, telles que des jumeaux ou des triplés (voir Clomid et jumeaux). Le clomifène est l'un des médicaments de fertilité les moins chers et les plus faciles à utiliser. Cependant, cela ne fonctionnera pas pour tous les types d'infertilité. Votre fournisseur de soins de santé doit essayer de trouver la cause de votre infertilité avant d'essayer le clomifène.
Le citrate de clomifène offre deux avantages à l'athlète qui améliore ses performances, l'un étant le principal. Le plus souvent, ce SERM est utilisé à des fins de récupération post-cycle ; spécifiquement pour stimuler la production naturelle de testostérone qui a été supprimée en raison de l'utilisation de stéroïdes anabolisants.
SOPK et problèmes d'ovulation et traitement Clomid. Clomid (citrate de clomifène ou Serophene) est un médicament oral couramment utilisé pour le traitement de l'infertilité. Il est souvent administré pour tenter de provoquer l'ovulation chez les femmes qui ne développent pas et ne libèrent pas d'ovule (ovuler) d'elles-mêmes.
Indication : Clomid (citrate de clomifène) est souvent le premier choix pour traiter l'infertilité, car il est efficace et utilisé depuis plus de 40 ans.
Description de Clomid. 1 Clomid (comprimés de citrate de clomifène USP) est un stimulant ovulatoire non stéroïdien administré par voie orale désigné chimiquement sous le nom de citrate de 2-[p-(2-chloro-1,2-diphénylvinyl)phénoxy] triéthylamine (1:1). Il a la formule moléculaire de C26H28ClNO • C6H8O7 et un poids moléculaire de 598,09.
SOPK et problèmes d'ovulation et traitement Clomid. Clomid (citrate de clomifène ou Serophene) est un médicament oral couramment utilisé pour le traitement de l'infertilité. 1 Il est souvent administré pour tenter de provoquer l'ovulation chez les femmes qui ne développent pas et ne libèrent pas d'ovule (ovuler) d'elles-mêmes. Clomid est commencé au début du cycle menstruel et est pris pendant cinq jours, soit du 3e au 7e jour du cycle, soit du 5e au 9e jour. .
Clomid est pris sous forme de pilule. Ceci est différent des médicaments de fertilité plus forts, qui nécessitent une injection. Clomid est également très efficace, stimulant l'ovulation 80 pour cent du temps. Clomid peut également être commercialisé sous le nom Serophene, ou vous pouvez le voir vendu sous son nom générique, le citrate de clomifène. Remarque : Clomid peut également être utilisé comme traitement de l'infertilité masculine. Cet article se concentre sur le traitement Clomid chez les femmes.
[4.75390625, 6.9375, 3.92578125, 1.0400390625, 5.61328125, ...]
coût comptable typique pour l'entrepreneur informatique
Sur le marché actuel, nous avons vu des taux aussi bas que 50 £ + TVA, et aussi élevés que 180 £ + TVA pour les comptables contractuels dédiés . Il est intéressant de noter que le coût moyen de la comptabilité des sous-traitants n'a pas augmenté parallèlement à l'inflation au cours de la dernière décennie.
Alors, combien coûte un entrepreneur, entre 5 % et 25 % du coût total du projet, avec une moyenne allant de 10 à 15 %. compétences. La manière exacte dont un entrepreneur général facture un projet dépend du type de contrat que vous acceptez. Il existe trois types courants de contrats de coûts, à prix fixe, temps et matériaux et coût plus frais.
1 Les comptables facturent de 150 $ à 400 $ ou plus de l'heure, selon le type de travail, la taille de l'entreprise et son emplacement. 2 Vous paierez des taux inférieurs pour le travail de routine effectué par un associé moins expérimenté ou un employé moins formé, par exemple 30 $ à 50 $ pour les services de tenue de livres. 3 Le total des honoraires d'un comptable dépend du projet. Pour un démarrage simple, attendez-vous à un minimum de 0,5 à 1,5 heure de consultation (75 $ à 600 $) pour passer en revue la structure de votre entreprise et les questions fiscales de base.
Alors, combien coûte un entrepreneur, entre 5% et 25% du coût total du projet, avec une moyenne allant de 10 à 15%. La manière exacte dont un entrepreneur général facture un projet dépend du type de contrat que vous acceptez. Il existe trois types courants de contrats de coûts, à prix fixe, temps et matériaux et coût plus frais. Chaque type de contrat présente des avantages et des inconvénients à la fois pour le consommateur et pour l'entrepreneur.
1 Les comptables facturent de 150 $ à 400 $ ou plus de l'heure, selon le type de travail, la taille de l'entreprise et son emplacement. 2 Vous paierez des taux inférieurs pour le travail de routine effectué par un associé moins expérimenté ou un employé moins formé, par exemple 30 $ à 50 $ pour les services de tenue de livres. 3 Le total des honoraires d'un comptable dépend du projet.
le salaire moyen des frappes de saisie de données par heure le salaire moyen pour les frappes de saisie de données par heure est de 20 000 $
Les services de comptabilité coûtent généralement de 250 $ à 400 $ par mois, ou de 350 $ à 500 $ par trimestre. Taxes de vente et recs bancaires inclus. Nous effectuons tout le traitement, le dépôt et les dépôts fiscaux. 5 employés, paie aux deux semaines, dépôt direct, 135 $ par mois.
Moins c'est sous-traité, moins cher ce sera pour vous. Un comptable devrait être payé entre 15 $ et 18 $ de l'heure. Un comptable titulaire d'un diplôme de premier cycle (4 ans) devrait être payé environ 20 $ l'heure, mais cela dépend toujours de ce que vous lui demandez de faire. Un comptable avec un diplôme d'études supérieures (maîtrise) devrait être payé entre 25 $ et 30 $ de l'heure.
Payer par niveau d'expérience pour l'analyste du renseignement. Médiane de toutes les rémunérations (y compris les pourboires, les primes et les heures supplémentaires) par années d'expérience. Les analystes du renseignement avec beaucoup d'expérience ont tendance à bénéficier de revenus plus élevés.
[7.44921875, 3.271484375, 5.859375, 3.234375, 5.421875, ...]
qu'est-ce que mch sur un test sanguin
Ce que signifient les niveaux élevés. Les niveaux de MCH dans les tests sanguins sont considérés comme élevés s'ils sont de 35 ou plus. Un taux d'hémoglobine normal est considéré comme compris entre 26 et 33 picogrammes par globule rouge. Des taux élevés de MCH peuvent indiquer une anémie macrocytaire, qui peut être causée par un manque de vitamine B12. Les globules rouges acrocytaires sont gros et ont donc tendance à avoir un MCH plus élevé, tandis que les globules rouges microcytaires auraient une valeur inférieure. MCH est l'un des trois indices de globules rouges (MCHC et MCV sont les deux autres). Les mesures sont effectuées par machine et peuvent aider au diagnostic de problèmes médicaux.
MCH signifie hémoglobine corpusculaire moyenne. Il estime la quantité moyenne d'hémoglobine dans chaque globule rouge, mesurée en picogrammes (un trillionième de gramme). Les compteurs de cellules automatisés calculent la MCH, qui est signalée dans le cadre d'un test de numération globulaire complète (CBC). La MCH peut être faible en anémie ferriprive et élevée en anémie due à une carence en vitamine B12 ou en folate. D'autres formes d'anémie peuvent également rendre la MCH anormale. Les médecins n'utilisent l'HME qu'à titre d'information à l'appui, pas pour poser un diagnostic.
A. MCH signifie hémoglobine corpusculaire moyenne. Il estime la quantité moyenne d'hémoglobine dans chaque globule rouge, mesurée en picogrammes (un trillionième de gramme). Les compteurs de cellules automatisés calculent la MCH, qui est signalée dans le cadre d'un test de numération globulaire complète (CBC). La MCH peut être faible en anémie ferriprive et élevée en anémie due à une carence en vitamine B12 ou en folate. D'autres formes d'anémie peuvent également rendre la MCH anormale.
Le test utilisé pour déterminer la quantité d'hémoglobine dans le sang est connu sous le nom de test sanguin MCH. La forme complète de MCH est l'hémoglobine corpusculaire moyenne. Ce test est donc utilisé pour déterminer la quantité moyenne d'hémoglobine par globule rouge dans le corps. Les résultats du test sanguin MCH sont donc rapportés en picogrammes, une toute petite mesure du poids.
Un test sanguin MCH élevé indique qu'il y a un faible apport d'oxygène dans le sang, alors qu'un test sanguin MCH faible signifie que l'hémoglobine est trop faible dans les cellules, ce qui indique un manque de fer. Il est important que le fer soit maintenu à un certain niveau car trop ou trop peu de fer peut être dangereux pour votre corps.
diapositive 1 sur 7. Qu'est-ce que la SMI ? MCH est le sigle de Mean Corpuscular Hemoglobin. Tiré du latin, le terme fait référence à la quantité moyenne d'hémoglobine présente dans les globules rouges. Un test sanguin CBC (numération globulaire complète) peut être utilisé pour surveiller les niveaux de MCH dans le sang. Lab Tests Online explique que l'aspect MCH d'un test CBC est une mesure de la quantité moyenne d'hémoglobine transportant l'oxygène à l'intérieur d'un globule rouge. Les globules rouges macrocytaires sont gros et ont donc tendance à avoir une MCH plus élevée, tandis que les globules rouges microcytaires auraient une valeur inférieure.
Le test utilisé pour déterminer la quantité d'hémoglobine dans le sang est connu sous le nom de test sanguin MCH. La forme complète de MCH est l'hémoglobine corpusculaire moyenne. Ce test est donc utilisé pour déterminer la quantité moyenne d'hémoglobine par globule rouge dans le corps. Les résultats du test sanguin MCH sont donc rapportés en picogrammes, une toute petite mesure du poids. La plage normale du test sanguin MCH se situe entre 26 et 33 pg par cellule.
Un test MCHC est un test qui est effectué pour tester une personne pour l'anémie. Le MCHC dans un test MCHC signifie Concentration Corpusculaire Moyenne d'Hémoglobine. MCHC est le calcul de l'hémoglobine moyenne à l'intérieur d'un globule rouge. Un test MCHC peut être effectué avec un test MCV (Mean Corpuscular Volume). Les deux niveaux sont utilisés pour tester les personnes pour l'anémie. Le test MCHC est également connu sous le nom de test sanguin MCH qui teste les niveaux d'hémoglobine dans le sang. Le test MCHC peut être commandé dans le cadre d'une numération formule sanguine (CBC). Le CHC est mesuré en grammes par décilitre. Les lectures normales pour MCHC sont de 31 grammes par décilitre à 35 grammes par décilitre. Un test sanguin MCHC peut être demandé lorsqu'une personne montre des signes de fatigue ou de faiblesse, lorsqu'il y a une infection, qu'elle saigne ou qu'elle a des ecchymoses facilement ou lorsqu'il y a une inflammation.
Le test examine la quantité moyenne d'hémoglobine par globule rouge. Donc MCHC = la quantité d'hémoglobine présente dans chaque globule rouge. Un test sanguin MCHC peut être demandé pour une personne qui présente des signes de fatigue ou de faiblesse, lorsqu'il y a une infection, qu'elle saigne ou qu'elle a des ecchymoses facilement ou lorsqu'il y a une inflammation notable.
[6.44921875, 7.05078125, 7.2109375, 8.40625, 6.53515625, ...]
- Loss:
SpladeLoss
with these parameters:{ "loss": "SparseMarginMSELoss", "document_regularizer_weight": 0.1, "query_regularizer_weight": 0.001 }
Evaluation Dataset
msmarco-qwen3-reranker-0.6_b-french
- Dataset: msmarco-qwen3-reranker-0.6_b-french at 0be06a4
- Size: 10,000 evaluation samples
- Columns:
query
,positive
,negative_1
,negative_2
,negative_3
,negative_4
,negative_5
,negative_6
,negative_7
,negative_8
, andscore
- Approximate statistics based on the first 1000 samples:
query positive negative_1 negative_2 negative_3 negative_4 negative_5 negative_6 negative_7 negative_8 score type string string string string string string string string string string list details - min: 4 tokens
- mean: 11.79 tokens
- max: 30 tokens
- min: 20 tokens
- mean: 98.71 tokens
- max: 271 tokens
- min: 13 tokens
- mean: 83.87 tokens
- max: 284 tokens
- min: 13 tokens
- mean: 83.19 tokens
- max: 256 tokens
- min: 17 tokens
- mean: 85.99 tokens
- max: 278 tokens
- min: 14 tokens
- mean: 84.73 tokens
- max: 297 tokens
- min: 16 tokens
- mean: 88.16 tokens
- max: 426 tokens
- min: 20 tokens
- mean: 83.38 tokens
- max: 328 tokens
- min: 14 tokens
- mean: 86.38 tokens
- max: 298 tokens
- min: 13 tokens
- mean: 84.92 tokens
- max: 383 tokens
- size: 9 elements
- Samples:
query positive negative_1 negative_2 negative_3 negative_4 negative_5 negative_6 negative_7 negative_8 score combien de personnes employées par shell
Shell dans le monde entier. Royal Dutch Shell a été fondée en 1907, bien que notre histoire remonte au début du XIXe siècle, dans un petit magasin à Londres où la famille Samuel vendait des coquillages. Aujourd'hui, Shell est l'une des principales sociétés énergétiques au monde, employant en moyenne 93 000 personnes et opérant dans plus de 70 pays. Notre siège social est à La Haye, aux Pays-Bas, et notre PDG est Ben van Beurden.
Afficher les informations sur les sources. Cette statistique montre le nombre d'employés de SeaWorld Entertainment, Inc. aux États-Unis, par type. En décembre 2016, SeaWorld employait 5 000 employés à temps plein et comptait environ 13 000 employés saisonniers pendant la haute saison d'exploitation.
Emplois, entreprises, personnes et articles pour le spécialiste de la paie de LinkedIn - membres d'Addus Homecare, Inc.. Informations sur les membres de Payroll Specialist - Addus Homecare, Inc. sur LinkedIn. Salaire médian 31 300 $.
En juillet 2014, il y avait 139 millions de personnes employées aux États-Unis. Ce nombre est en hausse de 209 000 salariés depuis juin et de 1,47 million depuis début 2014.
le salaire moyen des frappes de saisie de données par heure le salaire moyen pour les frappes de saisie de données par heure est de 20 000 $
Recherchez et examinez les emplois Plano Synergy. Apprenez-en plus sur une carrière chez Plano Synergy, y compris tous les emplois récents, les tendances d'embauche, les salaires, l'environnement de travail et plus encore. Trouvez des emplois Avis sur l'entreprise Trouvez des salaires Trouvez des CV Employeurs / Publiez une offre Téléchargez votre CV Connectez-vous
À partir de millions de données sur les salaires réels. 13 Données sur les salaires des spécialistes du support client. Le salaire moyen de Customer Support Specialist est de $59 032 S'identifier
À partir de millions de données sur les salaires réels. 1 Données salariales du PDG Ally. Le salaire moyen du PDG Ally est de 55 000 $ Salaire de départ détaillé du PDG Ally, salaire médian, échelle salariale, rapport de données sur les primes
Avantages et avantages de HelpSystems, notamment sa mutuelle et sa politique en matière de retraite et de congés. Signalé de manière anonyme par les employés de HelpSystems. Glassdoor utilise des cookies pour améliorer votre expérience sur le site.
[6.265625, -1.3671875, -6.91796875, 1.111328125, -7.96875, ...]
qu'est-ce qu'un lcsw
LCSW est un acronyme pour travailleur social clinique agréé, et les personnes portant ce titre sont des professionnels qualifiés qui répondent à certaines exigences et travaillent dans divers domaines. Le terme travailleur social n'est pas toujours synonyme de travailleur social clinique agréé.
LISW signifie que la personne est un travailleur social indépendant agréé. LCSW signifie que la personne est un travailleur social clinique agréé. Source(s) : Introduction au travail social 101 à l'Université du Nevada, Las Vega (UNLV) Dorothy K. · il y a 1 décennie.
Un LCSW est un travailleur social clinique agréé. Un LMHC est le plus récent ajout dans le domaine de la santé mentale. Ils sont très similaires et peuvent faire la plupart des mêmes choses à quelques exceptions près. Une chose à garder à l'esprit est que parce que la licence LMHC est si nouvelle, il y en a moins dans le domaine.n LCSW est une assistante sociale clinique agréée. Un LMHC est le plus récent ajout dans le domaine de la santé mentale. Ils sont très similaires et peuvent faire la plupart des mêmes choses à quelques exceptions près. Une chose à garder à l'esprit est qu'en raison de la nouveauté du LMHC, il y en a moins dans le domaine.
Le travailleur social clinique agréé ou LCSW est un sous-secteur du domaine du travail social. Ils travaillent avec les clients afin de les aider à faire face aux problèmes liés à leur santé mentale et émotionnelle. Cela pourrait être lié à la toxicomanie, à un traumatisme passé ou à une maladie mentale.
Travailleur social clinicien agréé
LCSW. Le travailleur social clinique agréé ou LCSW est un sous-secteur du domaine du travail social. Le LCSW travaille avec les clients afin d'aider à faire face aux problèmes de santé mentale et émotionnelle. Il existe une grande variété de spécialisations sur lesquelles le travailleur social clinique agréé peut se concentrer. L'examen LMSW est un test informatisé contenant 170 questions à choix multiples conçues pour mesurer les compétences minimales dans quatre catégories de pratique du travail social : développement humain, diversité et comportement dans l'environnement. Évaluation et planification des interventions.
Le travailleur social clinique agréé, également connu sous le nom de LCSW, est une branche du travail social spécialisée dans la thérapie en santé mentale sous forme de conseil. Devenir un LCSW nécessite un niveau de formation important, notamment avoir obtenu une maîtrise en travail social (MSW) d'un programme accrédité par le Council on Social Work Education (CSWE).
une. Les conditions d'examen pour obtenir l'autorisation d'exercer en tant que LCSW comprennent la réussite de l'examen clinique de l'ASWB ou de l'examen clinique des travailleurs sociaux de l'État de Californie. Champ d'exercice-Limites. a. Dans la mesure où ils sont préparés par l'éducation et la formation, un LCSW peut s'engager dans tous les actes et pratiques définis comme la pratique du travail social clinique. Travail social certifié (CSW) : CSW désigne un travailleur social certifié agréé. Un CSW doit avoir une maîtrise.
Le client LTCM est un moyen pour les entreprises de rester en contact avec vous, leurs clients, de manière discrète et entièrement sous le contrôle des utilisateurs. C'est une application qui s'exécute silencieusement sur l'ordinateur. Les utilisateurs peuvent et doivent personnaliser le client pour qu'il corresponde à leurs préférences souhaitées.
le thé oolong contient-il beaucoup de caféine ?
À poids donné, le thé contient plus de caféine que le café, mais cela ne veut pas dire qu'une portion habituelle de thé contient plus de caféine que le café car le thé est généralement infusé de manière faible. Certains types de thé, comme le thé oolong et le thé noir, contiennent plus de caféine que la plupart des autres thés. Parmi les six thés de base (vert, noir, jaune, blanc, oolong, foncé), le thé vert contient moins de caféine que le thé noir et le thé blanc en contient moins que le thé vert. Mais de nombreuses études ont révélé que la teneur en caféine varie davantage parmi les thés individuels que parmi les grandes catégories.
En fait, le thé oolong contient moins de caféine que le café et le thé noir. Une tasse de thé oolong ne contient qu'environ 1/3 de caféine d'une tasse de café. Selon une recherche menée par HICKS M.B, la caféine diminue chaque fois que les feuilles de thé passent par le processus d'infusion.
Le thé Oolong contient de la caféine. La caféine agit en stimulant le système nerveux central (SNC), le cœur et les muscles. Le thé Oolong contient également de la théophylline et de la théobromine, qui sont des produits chimiques similaires à la caféine. Trop de thé oolong, plus de cinq tasses par jour, peut provoquer des effets secondaires à cause de la caféine.
Le thé Oolong, fabriqué à partir de feuilles plus mûres, contient généralement moins de caféine que le thé vert. D'un autre côté, les feuilles mûres contiennent moins de théanine, un relaxant doux et naturel qui rend un thé beaucoup moins caféiné qu'il ne l'est en réalité. C'est en tout cas la théorie.
Le thé Oolong est un produit fabriqué à partir des feuilles, des bourgeons et des tiges de la plante Camellia sinensis. C'est la même plante qui est également utilisée pour faire du thé noir et du thé vert. La différence réside dans le traitement. Le thé Oolong est partiellement fermenté, le thé noir est entièrement fermenté et le thé vert n'est pas fermenté. Le thé Oolong est utilisé pour aiguiser les capacités de réflexion et améliorer la vigilance mentale. Il est également utilisé pour prévenir le cancer, la carie dentaire, l'ostéoporose et les maladies cardiaques. Cependant, ne buvez pas plus de 2 tasses de thé oolong par jour. Cette quantité de thé contient environ 200 mg de caféine. Trop de caféine pendant la grossesse peut provoquer un accouchement prématuré, un faible poids à la naissance et nuire au bébé.
Un rapport du Département des services nutritionnels fournit les plages de teneur en caféine suivantes pour une tasse de thé à base de feuilles en vrac : 1 Thé noir : 23 à 110 mg. 2 Thé Oolong : 12 - 55 mg. Thé vert : 8 - 36 mg.
Le thé Oolong est un produit fabriqué à partir des feuilles, des bourgeons et des tiges de la plante Camellia sinensis. C'est la même plante qui est également utilisée pour faire du thé noir et du thé vert. La différence réside dans le traitement. Le thé Oolong est partiellement fermenté, le thé noir est entièrement fermenté et le thé vert n'est pas fermenté. Le thé Oolong est utilisé pour aiguiser les capacités de réflexion et améliorer la vigilance mentale. Il est également utilisé pour prévenir le cancer, la carie dentaire, l'ostéoporose et les maladies cardiaques.
Effets du thé sur la santé – Caféine. Sous forme sèche, un kilogramme de thé noir contient deux fois plus de caféine qu'un kilogramme de café. Mais un kilogramme de thé noir fait environ 450 tasses de thé et un kilogramme de café fait environ 100 tasses de café, donc. Il y a moins de caféine dans une tasse de thé que dans une tasse de café. Les thés verts contiennent moins de caféine que les thés noirs et les thés blancs contiennent encore moins de caféine que les thés verts. Les thés Oolong se situent entre les thés noirs et verts. La tisane, parce qu'elle n'est pas fabriquée à partir du même théier, est naturellement sans caféine. Voici une représentation graphique de leur teneur respective en caféine.
La portion moyenne de 8 onces de thé noir infusé contient 14 à 70 mg de caféine. Cela se compare aux 24 à 45 mg de caféine contenus dans le thé vert. Un verre de 8 onces de thé glacé instantané préparé avec de l'eau contient 11 à 47 mg de caféine. La plupart des thés en bouteille prêts à boire contiennent de 5 à 40 mg de caféine. Tout comme le café, le thé décaféiné contient encore 5 à 10 mg de caféine par tasse.
[7.60546875, 8.78125, 9.109375, 8.609375, 7.984375, ...]
- Loss:
SpladeLoss
with these parameters:{ "loss": "SparseMarginMSELoss", "document_regularizer_weight": 0.1, "query_regularizer_weight": 0.001 }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: stepsper_device_train_batch_size
: 32per_device_eval_batch_size
: 32learning_rate
: 8e-05num_train_epochs
: 1warmup_ratio
: 0.1save_safetensors
: Falsebf16
: Trueload_best_model_at_end
: True
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: stepsprediction_loss_only
: Trueper_device_train_batch_size
: 32per_device_eval_batch_size
: 32per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 8e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 1max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Falsesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Truefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 3ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Truedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Trueignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Nonehub_always_push
: Falsehub_revision
: Nonegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseinclude_for_metrics
: []eval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseliger_kernel_config
: Noneeval_use_gather_object
: Falseaverage_tokens_across_devices
: Falseprompts
: Nonebatch_sampler
: batch_samplermulti_dataset_batch_sampler
: proportionalrouter_mapping
: {}learning_rate_mapping
: {}
Training Logs
Epoch | Step | Training Loss | Validation Loss | NanoFrenchMSMARCO_dot_ndcg@10 | NanoFrenchNFCorpus_dot_ndcg@10 | NanoFrenchNQ_dot_ndcg@10 | FrenchNanoBEIR_mean_dot_ndcg@10 | frenchSTS-dev_spearman_cosine | NanoFrenchClimateFEVER_dot_ndcg@10 | NanoFrenchDBPedia_dot_ndcg@10 | NanoFrenchFEVER_dot_ndcg@10 | NanoFrenchFiQA2018_dot_ndcg@10 | NanoFrenchHotpotQA_dot_ndcg@10 | NanoFrenchQuoraRetrieval_dot_ndcg@10 | NanoFrenchSCIDOCS_dot_ndcg@10 | NanoFrenchArguAna_dot_ndcg@10 | NanoFrenchSciFact_dot_ndcg@10 | NanoFrenchTouche2020_dot_ndcg@10 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0.0265 | 50 | 8506650.88 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.0530 | 100 | 222.9039 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.0794 | 150 | 33.99 | 31.3468 | 0.0126 | 0.0111 | 0.0 | 0.0079 | 0.2888 | - | - | - | - | - | - | - | - | - | - |
0.1059 | 200 | 31.39 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.1324 | 250 | 30.6983 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.1589 | 300 | 28.8191 | 29.1110 | 0.01 | 0.0267 | 0.0063 | 0.0143 | 0.3676 | - | - | - | - | - | - | - | - | - | - |
0.1854 | 350 | 28.5106 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.2119 | 400 | 26.7654 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.2383 | 450 | 21.6067 | 19.1803 | 0.4533 | 0.2427 | 0.3791 | 0.3584 | 0.6547 | - | - | - | - | - | - | - | - | - | - |
0.2648 | 500 | 19.2405 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.2913 | 550 | 17.6265 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.3178 | 600 | 16.9096 | 16.7656 | 0.5028 | 0.2931 | 0.4819 | 0.4259 | 0.6767 | - | - | - | - | - | - | - | - | - | - |
0.3443 | 650 | 16.4199 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.3708 | 700 | 16.0049 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.3972 | 750 | 15.5493 | 14.4385 | 0.5047 | 0.3061 | 0.5445 | 0.4518 | 0.6639 | - | - | - | - | - | - | - | - | - | - |
0.4237 | 800 | 15.3306 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.4502 | 850 | 14.7518 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.4767 | 900 | 14.7381 | 13.8810 | 0.5100 | 0.3088 | 0.5024 | 0.4404 | 0.6651 | - | - | - | - | - | - | - | - | - | - |
0.5032 | 950 | 14.3869 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.5297 | 1000 | 13.8727 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.5561 | 1050 | 13.737 | 13.6168 | 0.5076 | 0.3093 | 0.4816 | 0.4328 | 0.6674 | - | - | - | - | - | - | - | - | - | - |
0.5826 | 1100 | 13.8587 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.6091 | 1150 | 13.4695 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.6356 | 1200 | 13.4227 | 13.1055 | 0.5354 | 0.3299 | 0.5025 | 0.4559 | 0.6743 | - | - | - | - | - | - | - | - | - | - |
0.6621 | 1250 | 13.1412 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.6886 | 1300 | 13.0802 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.7150 | 1350 | 12.9431 | 12.7858 | 0.5447 | 0.3227 | 0.5172 | 0.4615 | 0.6821 | - | - | - | - | - | - | - | - | - | - |
0.7415 | 1400 | 12.9135 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.7680 | 1450 | 12.6782 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.7945 | 1500 | 12.5919 | 12.2031 | 0.5459 | 0.3249 | 0.5365 | 0.4691 | 0.6712 | - | - | - | - | - | - | - | - | - | - |
0.8210 | 1550 | 12.4635 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.8475 | 1600 | 12.1051 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.8739 | 1650 | 12.2462 | 12.0955 | 0.5297 | 0.3282 | 0.5273 | 0.4617 | 0.6766 | - | - | - | - | - | - | - | - | - | - |
0.9004 | 1700 | 12.1506 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.9269 | 1750 | 12.3953 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
0.9534 | 1800 | 12.3126 | 11.9075 | 0.5487 | 0.3225 | 0.5472 | 0.4728 | 0.6755 | - | - | - | - | - | - | - | - | - | - |
0.9799 | 1850 | 12.2191 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
-1 | -1 | - | - | 0.5487 | 0.3225 | 0.5472 | 0.5260 | 0.6755 | 0.1869 | 0.5589 | 0.7545 | 0.4515 | 0.7588 | 0.8002 | 0.3324 | 0.3594 | 0.7132 | 0.5032 |
- The bold row denotes the saved checkpoint.
Framework Versions
- Python: 3.13.3
- Sentence Transformers: 5.1.0.dev0
- Transformers: 4.53.0
- PyTorch: 2.7.1+cu126
- Accelerate: 1.8.1
- Datasets: 3.6.0
- Tokenizers: 0.21.2
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
SpladeLoss
@misc{formal2022distillationhardnegativesampling,
title={From Distillation to Hard Negative Sampling: Making Sparse Neural IR Models More Effective},
author={Thibault Formal and Carlos Lassance and Benjamin Piwowarski and Stéphane Clinchant},
year={2022},
eprint={2205.04733},
archivePrefix={arXiv},
primaryClass={cs.IR},
url={https://arxiv.org/abs/2205.04733},
}
SparseMarginMSELoss
@misc{hofstätter2021improving,
title={Improving Efficient Neural Ranking Models with Cross-Architecture Knowledge Distillation},
author={Sebastian Hofstätter and Sophia Althammer and Michael Schröder and Mete Sertkan and Allan Hanbury},
year={2021},
eprint={2010.02666},
archivePrefix={arXiv},
primaryClass={cs.IR}
}
FlopsLoss
@article{paria2020minimizing,
title={Minimizing flops to learn efficient sparse representations},
author={Paria, Biswajit and Yeh, Chih-Kuan and Yen, Ian EH and Xu, Ning and Ravikumar, Pradeep and P{'o}czos, Barnab{'a}s},
journal={arXiv preprint arXiv:2004.05665},
year={2020}
}