Holy-fox commited on
Commit
60adb13
·
verified ·
1 Parent(s): dde5bff

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +57 -3
README.md CHANGED
@@ -1,3 +1,57 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ language:
4
+ - ja
5
+ - en
6
+ base_model:
7
+ - sbintuitions/sarashina2.2-3b-instruct-v0.1
8
+ pipeline_tag: text-generation
9
+ ---
10
+
11
+ # DataPilot/ArrowNeo-Neko-3B-instruct-v0.1
12
+
13
+ ## overview
14
+
15
+ このモデルはSB intuitionsの[sarashina-2.2-instruct-v0.1](https://huggingface.co/sbintuitions/sarashina2.2-3b-instruct-v0.1)をベースにUnslothを用いて指示追従性能向上を目指して合成データでチューニングされました。
16
+
17
+ ## How to use
18
+
19
+ 以下のコードでこのモデルを動かすことができます。
20
+ ```python
21
+ import torch
22
+ from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline, set_seed
23
+
24
+ # モデルのロード
25
+ model_name = "DataPilot/ArrowNeo-Neko-3B-instruct-v0.1"
26
+ model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map="auto")
27
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
28
+ chat_pipeline = pipeline("text-generation", model=model, tokenizer=tokenizer)
29
+ set_seed(123)
30
+
31
+ # ユーザーの入力
32
+ user_input = [{"role": "user", "content": "こんにちは。Pythonを用いてstrawberryのRをカウントするコードを書いて下さい。"}]
33
+
34
+ # モデルによる応答生成
35
+ responses = chat_pipeline(
36
+ user_input,
37
+ max_length=50,
38
+ do_sample=True,
39
+ num_return_sequences=2,
40
+ )
41
+
42
+ # 応答を表示
43
+ for i, response in enumerate(responses, 1):
44
+ print(f"Response {i}: {response['generated_text']}")
45
+ ```
46
+
47
+ ## Limitations
48
+
49
+ このモデルには、安全トレーニングが制限されています。
50
+ したがって、いくつかの無意味なシーケンス、いくつかの不正確なインスタンス、または偏った/不快な出力を生成する可能性があります。
51
+ 使用する前に、開発者は人間の好みと安全上の考慮事項に基づいてモデルを調整していただきたいと思います。
52
+
53
+ ## License
54
+
55
+ MIT license
56
+ このモデルのライセンスは[元モデルのライセンス](https://huggingface.co/sbintuitions/sarashina2.2-3b-instruct-v0.1/blob/main/LICENSE)に準拠します。
57
+