@@ -6409,6 +6409,8 @@ void llama_model::print_info() const {
64096409 LLAMA_LOG_INFO("%s: n_ff = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_ff(il); }, hparams.n_layer).c_str());
64106410 LLAMA_LOG_INFO("%s: n_expert = %u\n", __func__, hparams.n_expert);
64116411 LLAMA_LOG_INFO("%s: n_expert_used = %u\n", __func__, hparams.n_expert_used);
6412+ LLAMA_LOG_INFO("%s: n_expert_groups = %d\n", __func__, hparams.n_expert_groups);
6413+ LLAMA_LOG_INFO("%s: n_group_used = %d\n", __func__, hparams.n_group_used);
64126414 LLAMA_LOG_INFO("%s: causal attn = %d\n", __func__, hparams.causal_attn);
64136415 LLAMA_LOG_INFO("%s: pooling type = %d\n", __func__, hparams.pooling_type);
64146416 LLAMA_LOG_INFO("%s: rope type = %d\n", __func__, hparams.rope_type);
@@ -6513,8 +6515,6 @@ void llama_model::print_info() const {
65136515 LLAMA_LOG_INFO("%s: n_ff_exp = %d\n", __func__, hparams.n_ff_exp);
65146516 LLAMA_LOG_INFO("%s: n_ff_shexp = %d\n", __func__, hparams.n_ff_shexp);
65156517 LLAMA_LOG_INFO("%s: n_expert_shared = %d\n", __func__, hparams.n_expert_shared);
6516- LLAMA_LOG_INFO("%s: n_expert_groups = %d\n", __func__, hparams.n_expert_groups);
6517- LLAMA_LOG_INFO("%s: n_group_used = %d\n", __func__, hparams.n_group_used);
65186518 LLAMA_LOG_INFO("%s: expert_weights_scale = %.1f\n", __func__, hparams.expert_weights_scale);
65196519 LLAMA_LOG_INFO("%s: expert_weights_norm = %d\n", __func__, hparams.expert_weights_norm);
65206520 LLAMA_LOG_INFO("%s: expert_gating_func = %s\n", __func__, llama_expert_gating_func_name((llama_expert_gating_func_type) hparams.expert_gating_func));
0 commit comments