Configuration Parsing Warning: In tokenizer_config.json: "tokenizer_config.chat_template" must be one of [string, array]

Mixtral-8x22B-v0.1-AWQ

On April 10th, @MistralAI released a model named "Mixtral 8x22B," an 176B MoE via magnet link (torrent):

  • 176B MoE with ~40B active
  • Context length of 65k tokens
  • The base model can be fine-tuned
  • Requires ~260GB VRAM in fp16, 73GB in int4
  • Licensed under Apache 2.0, according to their Discord
  • Available on @huggingface (community)
  • Utilizes a tokenizer similar to previous models

MaziyarPanahi/Mixtral-8x22B-v0.1-AWQ is a quantized (AWQ) version of v2ray/Mixtral-8x22B-v0.1

How to use

Install the necessary packages

pip install --upgrade accelerate autoawq transformers

Example Python code

from transformers import AutoTokenizer, AutoModelForCausalLM

model_id = "MaziyarPanahi/Mixtral-8x22B-v0.1-AWQ"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id).to(0)

text = "Hello can you provide me with top-3 cool places to visit in Paris?"
inputs = tokenizer(text, return_tensors="pt").to(0)

out = model.generate(**inputs, max_new_tokens=300)
print(tokenizer.decode(out[0], skip_special_tokens=True))

Credit

  • MistralAI for opening the weights

  • v2ray for downloading, converting, and sharing it with the community Mixtral-8x22B-v0.1

  • philschmid for the photo he shared on his Twitter

                                                                   ▄▄▄░░
                                                          ▄▄▄▄▄█████████░░░░
                                              ▄▄▄▄▄▄████████████████████░░░░░
                                           █████████████████████████████░░░░░
                      ▄▄▄▄▄▄█████░░░       █████████████████████████████░░░░░
           ▄▄▄▄▄██████████████████░░░░░░  ██████████████████████████████░░░░░
    ▄█████████████████████████████░░░░░░░░██████████████████████████████░░░░░
    ███████████████████████████████░░░░░░░██████████████████████████████░░░░░
    ███████████████████████████████░░░░░░░██████████████████████████████░░░░░
    ███████████████████████████████░░░░░░███████████████████████████████░░░░░
    ████████████████████████████████░░░░░███████████████████████████████░░░░░
    ████████████████████████████████░░░░████████████████████████████████░░░░░
    █████████████████████████████████░░░████████████████████████████████░░░░░
    █████████████████████████████████░░░████████████░███████████████████░░░░░
    ██████████████████████████████████░█████████████░███████████████████░░░░░
    ███████████████████░██████████████▄█████████████░███████████████████░░░░░
    ███████████████████░███████████████████████████░░███████████████████░░░░░
    ███████████████████░░██████████████████████████░░███████████████████░░░░░
    ███████████████████░░█████████████████████████░░░███████████████████░░░░░
    ███████████████████░░░████████████████████████░░░███████████████████░░░░░
    ███████████████████░░░████████████████████████░░░███████████████████░░░░░
    ███████████████████░░░░██████████████████████░░░░███████████████████░░░░░
    ███████████████████░░░░██████████████████████░░░░███████████████████░░░░░
    ███████████████████░░░░░█████████████████████░░░░███████████████████░░░░░
    ███████████████████░░░░░████████████████████░░░░░███████████████████░░░░░
    ███████████████████░░░░░░███████████████████░░░░░███████████████████░░░░░
    ███████████████████░░░░░░██████████████████░░░░░░███████████████████░░░░░
    ███████████████████░░░░░░░█████████████████░░░░░░███████████████████░░░░░
    ███████████████████░░░░░░░█████████████████░░░░░░███████████████████░░░░░
    ███████████████████░░░░░░░░███████████████░░░░░░░██████████░░░░░░░░░░░░░░
    ███████████████████░░░░░░░░███████████████░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░
    ███████████████████░░░░░░░░███████████░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░
    ███████████████████░░░░░░░░░██░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░
    ███████████████░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░
    ██████████░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░  ░░░░░░░
        ░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░      ░░░
              ░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░    ░░░░░░░░░░░░░░░░░░
                 ░░░░░░░░░░░░░░░░░░░░░░░░░░░░
                      ░░░░░░░░░░░░░░░░░
                         ░░░░░
    
Downloads last month
11,013
Safetensors
Model size
19.2B params
Tensor type
I32
·
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for mistral-community/Mixtral-8x22B-v0.1-AWQ

Quantized
(2)
this model

Space using mistral-community/Mixtral-8x22B-v0.1-AWQ 1