6.8. llava-next¶
llama3-llava-next-8b-hf¶
模型下载¶
branch: main
commit id: 4b8c68ff38c0e76794018154c6df3ca308b0f76c
将上述url设定的路径下的内容全部下载到
llama3-llava-next-8b-hf
文件夹中。
批量离线推理¶
python3 -m vllm_utils.benchmark_vision_language \
--demo \
--model=[path of llama3-llava-next-8b-hf] \
--prompt=[your prompt] \
--input-vision-file=[path of your test image] \
--max-output-len=128 \
--device=gcu
注:
默认为graph mode推理,若想使用eager mode,请添加
--enforce-eager
;--max-output-len
可按需调整;
性能测试¶
python3 -m vllm_utils.benchmark_vision_language \
--perf \
--model=[path of llama3-llava-next-8b-hf] \
--batch-size=1 \
--input-len=2048 \
--input-vision-shape="224,224" \
--max-output-len=1024 \
--device=gcu \
--block-size=64
注:
默认为graph mode推理,若想使用eager mode,请添加
--enforce-eager
;--batch-size
、--input-len
、--input-vision-shape
、--max-output-len
可按需调整;