|
--- |
|
base_model: TinyLlama/TinyLlama-1.1B-Chat-v1.0 |
|
library_name: transformers |
|
license: mit |
|
language: |
|
- en |
|
- pt |
|
metrics: |
|
- accuracy |
|
new_version: lambdaindie/lambdai |
|
pipeline_tag: text-generation |
|
tags: |
|
- code |
|
- math |
|
--- |
|
|
|
Arquitetura |
|
|
|
Base: TinyLlama-1.1B-Chat |
|
|
|
LoRA: ativado (q_proj, v_proj) |
|
|
|
Quantização: 8 bits (bnb_config, com nf4) |
|
|
|
Dataset: HuggingFaceH4/MATH - subset number_theory |
|
|
|
Tokens: até 512 por amostra |
|
|
|
Batch: 20 por device |
|
|
|
Epochs: 3 |
|
|
|
|
|
|
|
--- |
|
|
|
Exemplo de uso (Python) |
|
|
|
from transformers import AutoTokenizer, AutoModelForCausalLM |
|
|
|
model = AutoModelForCausalLM.from_pretrained("lambdaindie/lambdai") |
|
tokenizer = AutoTokenizer.from_pretrained("lambdaindie/lambdai") |
|
|
|
input_text = "Problema: Prove que 17 é um número primo." |
|
inputs = tokenizer(input_text, return_tensors="pt") |
|
output = model.generate(**inputs, max_new_tokens=100) |
|
|
|
print(tokenizer.decode(output[0], skip_special_tokens=True)) |
|
|
|
|
|
--- |
|
|
|
Sobre a Lambda |
|
|
|
Lambda é uma startup solo fundada por Marius Jabami com foco em soluções educacionais, IA, automação e software independente. Este modelo representa a primeira iteração de uma linha voltada para educação e lógica matemática com LLMs leves. |
|
|
|
|
|
--- |