@@ -6356,6 +6356,8 @@ void llama_model::print_info() const {
63566356 LLAMA_LOG_INFO("%s: n_ff = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_ff(il); }, hparams.n_layer).c_str());
63576357 LLAMA_LOG_INFO("%s: n_expert = %u\n", __func__, hparams.n_expert);
63586358 LLAMA_LOG_INFO("%s: n_expert_used = %u\n", __func__, hparams.n_expert_used);
6359+ LLAMA_LOG_INFO("%s: n_expert_groups = %d\n", __func__, hparams.n_expert_groups);
6360+ LLAMA_LOG_INFO("%s: n_group_used = %d\n", __func__, hparams.n_group_used);
63596361 LLAMA_LOG_INFO("%s: causal attn = %d\n", __func__, hparams.causal_attn);
63606362 LLAMA_LOG_INFO("%s: pooling type = %d\n", __func__, hparams.pooling_type);
63616363 LLAMA_LOG_INFO("%s: rope type = %d\n", __func__, hparams.rope_type);
@@ -6456,8 +6458,6 @@ void llama_model::print_info() const {
64566458 LLAMA_LOG_INFO("%s: n_ff_exp = %d\n", __func__, hparams.n_ff_exp);
64576459 LLAMA_LOG_INFO("%s: n_ff_shexp = %d\n", __func__, hparams.n_ff_shexp);
64586460 LLAMA_LOG_INFO("%s: n_expert_shared = %d\n", __func__, hparams.n_expert_shared);
6459- LLAMA_LOG_INFO("%s: n_expert_groups = %d\n", __func__, hparams.n_expert_groups);
6460- LLAMA_LOG_INFO("%s: n_group_used = %d\n", __func__, hparams.n_group_used);
64616461 LLAMA_LOG_INFO("%s: expert_weights_scale = %.1f\n", __func__, hparams.expert_weights_scale);
64626462 LLAMA_LOG_INFO("%s: expert_weights_norm = %d\n", __func__, hparams.expert_weights_norm);
64636463 LLAMA_LOG_INFO("%s: expert_gating_func = %s\n", __func__, llama_expert_gating_func_name((llama_expert_gating_func_type) hparams.expert_gating_func));
0 commit comments