3.22. SUS-Chat

SUS-Chat-34B-w8a16

本模型推理及性能测试需要两张enflame gcu。

模型下载

  • 如需要下载权重,请联系商务人员开通EGC权限进行下载

  • 下载SUS-Chat-34B-w8a16.tar文件并解压,将压缩包内的内容全部拷贝到SUS-Chat-34B-w8a16文件夹中。

  • SUS-Chat-34B-w8a16目录结构如下所示:

SUS-Chat-34B-w8a16/
    ├── config.json
    ├── config_tmp.json
    ├── model.safetensors
    ├── quantize_config.json
    ├── special_tokens_map.json
    ├── tokenizer_config.json
    ├── tokenizer.json
    ├── tokenizer.model
    └── tops_quantize_info.json

批量离线推理

python3 -m vllm_utils.benchmark_test \
    --demo="te" \
    --model=[path of SUS-Chat-34B-w8a16] \
    --output-len=256 \
    --dtype=float16 \
    --tensor-parallel-size 2 \
    --device gcu

性能测试

python3 -m vllm_utils.benchmark_test --perf \
    --model=[path of SUS-Chat-34B-w8a16] \
    --tensor-parallel-size 2 \
    --dtype float16 \
    --quantization w8a16 \
    --trust-remote-code \
    --num-prompts 10 \
    --max-model-len 8192 \
    --input-len 1500 \
    --output-len 50 \
    --device gcu

注:

  • 本模型支持的max-model-len为8192;

  • input-lenoutput-lennum-prompts可按需调整;

  • 配置 output-len为1时,输出内容中的latency即为time_to_first_token_latency;

serving模式

# 启动服务端
python3 -m vllm.entrypoints.openai.api_server \
    --model=[path of SUS-Chat-34B-w8a16] \
    --dtype float16 \
    --quantization w8a16 \
    --trust-remote-code \
    --max-model-len 8192 \
    --device gcu

# 启动客户端
python3 -m vllm_utils.benchmark_serving \
    --backend vllm \
    --dataset-name random \
    --model=[path of SUS-Chat-34B-w8a16] \
    --num-prompts 10 \
    --random-input-len 4 \
    --random-output-len 300 \
    --trust-remote-code

注:

  • 为保证输入输出长度固定,数据集使用随机数测试;

  • num-prompts, random-input-len和random-output-len可按需调整;