@@ -3484,9 +3484,7 @@ void llama_model::print_info() const {
34843484
34853485 // hparams
34863486 LLAMA_LOG_INFO (" %s: arch = %s\n " , __func__, arch_name ().c_str ());
3487- LLAMA_LOG_INFO (" %s: vocab type = %s\n " , __func__, vocab.type_name ().c_str ());
3488- LLAMA_LOG_INFO (" %s: n_vocab = %u\n " , __func__, hparams.n_vocab );
3489- LLAMA_LOG_INFO (" %s: n_merges = %u\n " , __func__, (int ) vocab.bpe_ranks .size ());
3487+ LLAMA_LOG_INFO (" %s: n_vocab (hp) = %u\n " , __func__, hparams.n_vocab );
34903488 LLAMA_LOG_INFO (" %s: vocab_only = %d\n " , __func__, hparams.vocab_only );
34913489
34923490 if (!hparams.vocab_only ) {
@@ -3539,32 +3537,6 @@ void llama_model::print_info() const {
35393537 // general kv
35403538 LLAMA_LOG_INFO (" %s: general.name = %s\n " , __func__, name.c_str ());
35413539
3542- // special tokens
3543- if (vocab.special_bos_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: BOS token = %d '%s'\n " , __func__, vocab.special_bos_id , vocab.id_to_token [vocab.special_bos_id ].text .c_str () ); }
3544- if (vocab.special_eos_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: EOS token = %d '%s'\n " , __func__, vocab.special_eos_id , vocab.id_to_token [vocab.special_eos_id ].text .c_str () ); }
3545- if (vocab.special_eot_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: EOT token = %d '%s'\n " , __func__, vocab.special_eot_id , vocab.id_to_token [vocab.special_eot_id ].text .c_str () ); }
3546- if (vocab.special_eom_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: EOM token = %d '%s'\n " , __func__, vocab.special_eom_id , vocab.id_to_token [vocab.special_eom_id ].text .c_str () ); }
3547- if (vocab.special_unk_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: UNK token = %d '%s'\n " , __func__, vocab.special_unk_id , vocab.id_to_token [vocab.special_unk_id ].text .c_str () ); }
3548- if (vocab.special_sep_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: SEP token = %d '%s'\n " , __func__, vocab.special_sep_id , vocab.id_to_token [vocab.special_sep_id ].text .c_str () ); }
3549- if (vocab.special_pad_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: PAD token = %d '%s'\n " , __func__, vocab.special_pad_id , vocab.id_to_token [vocab.special_pad_id ].text .c_str () ); }
3550- if (vocab.special_cls_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: CLS token = %d '%s'\n " , __func__, vocab.special_cls_id , vocab.id_to_token [vocab.special_cls_id ].text .c_str () ); }
3551- if (vocab.special_mask_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: MASK token = %d '%s'\n " , __func__, vocab.special_mask_id , vocab.id_to_token [vocab.special_mask_id ].text .c_str () ); }
3552-
3553- if (vocab.linefeed_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: LF token = %d '%s'\n " , __func__, vocab.linefeed_id , vocab.id_to_token [vocab.linefeed_id ].text .c_str () ); }
3554-
3555- if (vocab.special_fim_pre_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: FIM PRE token = %d '%s'\n " , __func__, vocab.special_fim_pre_id , vocab.id_to_token [vocab.special_fim_pre_id ].text .c_str () ); }
3556- if (vocab.special_fim_suf_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: FIM SUF token = %d '%s'\n " , __func__, vocab.special_fim_suf_id , vocab.id_to_token [vocab.special_fim_suf_id ].text .c_str () ); }
3557- if (vocab.special_fim_mid_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: FIM MID token = %d '%s'\n " , __func__, vocab.special_fim_mid_id , vocab.id_to_token [vocab.special_fim_mid_id ].text .c_str () ); }
3558- if (vocab.special_fim_pad_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: FIM PAD token = %d '%s'\n " , __func__, vocab.special_fim_pad_id , vocab.id_to_token [vocab.special_fim_pad_id ].text .c_str () ); }
3559- if (vocab.special_fim_rep_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: FIM REP token = %d '%s'\n " , __func__, vocab.special_fim_rep_id , vocab.id_to_token [vocab.special_fim_rep_id ].text .c_str () ); }
3560- if (vocab.special_fim_sep_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: FIM SEP token = %d '%s'\n " , __func__, vocab.special_fim_sep_id , vocab.id_to_token [vocab.special_fim_sep_id ].text .c_str () ); }
3561-
3562- for (const auto & id : vocab.special_eog_ids ) {
3563- LLAMA_LOG_INFO ( " %s: EOG token = %d '%s'\n " , __func__, id, vocab.id_to_token [id].text .c_str () );
3564- }
3565-
3566- LLAMA_LOG_INFO (" %s: max token length = %d\n " , __func__, vocab.max_token_len );
3567-
35683540 if (arch == LLM_ARCH_DEEPSEEK) {
35693541 LLAMA_LOG_INFO (" %s: n_layer_dense_lead = %d\n " , __func__, hparams.n_layer_dense_lead );
35703542 LLAMA_LOG_INFO (" %s: n_ff_exp = %d\n " , __func__, hparams.n_ff_exp );
@@ -3594,6 +3566,8 @@ void llama_model::print_info() const {
35943566 LLAMA_LOG_INFO (" %s: f_residual_scale = %f\n " , __func__, hparams.f_residual_scale );
35953567 LLAMA_LOG_INFO (" %s: f_attention_scale = %f\n " , __func__, hparams.f_attention_scale );
35963568 }
3569+
3570+ vocab.print_info ();
35973571}
35983572
35993573ggml_backend_dev_t llama_model::dev_layer (int il) const {
@@ -3704,7 +3678,7 @@ void llama_model_free(struct llama_model * model) {
37043678}
37053679
37063680enum llama_vocab_type llama_vocab_type (const struct llama_model * model) {
3707- return model->vocab .type ;
3681+ return model->vocab .get_type () ;
37083682}
37093683
37103684int32_t llama_n_vocab (const struct llama_model * model) {
0 commit comments