|
1 | 1 | #!/bin/bash |
2 | 2 |
|
3 | | -FUSED_MOE_PERSISTENT=1 VLLM_MOE_PADDING=128 VLLM_MOE_SHUFFLE=1 TRITON_HIP_USE_NEW_STREAM_PIPELINE=1 python benchmark_mixtral_moe_rocm.py --model 8x7B --TP 4 |
| 3 | +export FUSED_MOE_PERSISTENT=1 |
| 4 | +export VLLM_MOE_PADDING=128 |
| 5 | +export VLLM_MOE_SHUFFLE=1 |
| 6 | +export TRITON_HIP_USE_NEW_STREAM_PIPELINE=1 |
4 | 7 |
|
5 | | -FUSED_MOE_PERSISTENT=1 VLLM_MOE_PADDING=128 VLLM_MOE_SHUFFLE=1 TRITON_HIP_USE_NEW_STREAM_PIPELINE=1 python benchmark_mixtral_moe_rocm.py --model 8x7B --TP 8 |
| 8 | +## ---- Mixtral fp8 tuning ---- ## |
6 | 9 |
|
7 | | -FUSED_MOE_PERSISTENT=1 VLLM_MOE_PADDING=128 VLLM_MOE_SHUFFLE=1 TRITON_HIP_USE_NEW_STREAM_PIPELINE=1 python benchmark_mixtral_moe_rocm.py --model 8x22B --TP 8 |
| 10 | +python benchmark_moe.py --model /data/Mixtral-8x7B-Instruct-v0.1-FP8/ -tp 1 --dtype fp8_w8a8 --tune |
| 11 | +python benchmark_moe.py --model /data/Mixtral-8x7B-Instruct-v0.1-FP8/ -tp 2 --dtype fp8_w8a8 --tune |
| 12 | +python benchmark_moe.py --model /data/Mixtral-8x7B-Instruct-v0.1-FP8/ -tp 4 --dtype fp8_w8a8 --tune |
| 13 | +python benchmark_moe.py --model /data/Mixtral-8x7B-Instruct-v0.1-FP8/ -tp 8 --dtype fp8_w8a8 --tune |
8 | 14 |
|
9 | | -FUSED_MOE_PERSISTENT=1 VLLM_MOE_PADDING=128 VLLM_MOE_SHUFFLE=1 TRITON_HIP_USE_NEW_STREAM_PIPELINE=1 python benchmark_mixtral_moe_rocm.py --model 8x22B --TP 16 |
| 15 | +python benchmark_moe.py --model /data/Mixtral-8x22B-Instruct-v0.1-FP8/ -tp 1 --dtype fp8_w8a8 --tune |
| 16 | +python benchmark_moe.py --model /data/Mixtral-8x22B-Instruct-v0.1-FP8/ -tp 2 --dtype fp8_w8a8 --tune |
| 17 | +python benchmark_moe.py --model /data/Mixtral-8x22B-Instruct-v0.1-FP8/ -tp 4 --dtype fp8_w8a8 --tune |
| 18 | +python benchmark_moe.py --model /data/Mixtral-8x22B-Instruct-v0.1-FP8/ -tp 8 --dtype fp8_w8a8 --tune |
| 19 | + |
| 20 | + |
| 21 | +## ---- Mixtral fp16 tuning ---- ## |
| 22 | + |
| 23 | +python benchmark_moe.py --model /data/AI-ModelScope/Mixtral-8x7B-Instruct-v0___1/ -tp 1 --tune |
| 24 | +python benchmark_moe.py --model /data/AI-ModelScope/Mixtral-8x7B-Instruct-v0___1/ -tp 2 --tune |
| 25 | +python benchmark_moe.py --model /data/AI-ModelScope/Mixtral-8x7B-Instruct-v0___1/ -tp 4 --tune |
| 26 | +python benchmark_moe.py --model /data/AI-ModelScope/Mixtral-8x7B-Instruct-v0___1/ -tp 8 --tune |
| 27 | + |
| 28 | +python benchmark_moe.py --model /data/huggingFace/Mixtral-8x22B-v0.1/ -tp 1 --tune |
| 29 | +python benchmark_moe.py --model /data/huggingFace/Mixtral-8x22B-v0.1/ -tp 2 --tune |
| 30 | +python benchmark_moe.py --model /data/huggingFace/Mixtral-8x22B-v0.1/ -tp 4 --tune |
| 31 | +python benchmark_moe.py --model /data/huggingFace/Mixtral-8x22B-v0.1/ -tp 8 --tune |
| 32 | + |
0 commit comments