@@ -3494,9 +3494,7 @@ void llama_model::print_info() const {
34943494
34953495 // hparams
34963496 LLAMA_LOG_INFO (" %s: arch = %s\n " , __func__, arch_name ().c_str ());
3497- LLAMA_LOG_INFO (" %s: vocab type = %s\n " , __func__, vocab.type_name ().c_str ());
3498- LLAMA_LOG_INFO (" %s: n_vocab = %u\n " , __func__, hparams.n_vocab );
3499- LLAMA_LOG_INFO (" %s: n_merges = %u\n " , __func__, (int ) vocab.bpe_ranks .size ());
3497+ LLAMA_LOG_INFO (" %s: n_vocab (hp) = %u\n " , __func__, hparams.n_vocab );
35003498 LLAMA_LOG_INFO (" %s: vocab_only = %d\n " , __func__, hparams.vocab_only );
35013499
35023500 if (!hparams.vocab_only ) {
@@ -3549,32 +3547,6 @@ void llama_model::print_info() const {
35493547 // general kv
35503548 LLAMA_LOG_INFO (" %s: general.name = %s\n " , __func__, name.c_str ());
35513549
3552- // special tokens
3553- if (vocab.special_bos_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: BOS token = %d '%s'\n " , __func__, vocab.special_bos_id , vocab.id_to_token [vocab.special_bos_id ].text .c_str () ); }
3554- if (vocab.special_eos_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: EOS token = %d '%s'\n " , __func__, vocab.special_eos_id , vocab.id_to_token [vocab.special_eos_id ].text .c_str () ); }
3555- if (vocab.special_eot_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: EOT token = %d '%s'\n " , __func__, vocab.special_eot_id , vocab.id_to_token [vocab.special_eot_id ].text .c_str () ); }
3556- if (vocab.special_eom_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: EOM token = %d '%s'\n " , __func__, vocab.special_eom_id , vocab.id_to_token [vocab.special_eom_id ].text .c_str () ); }
3557- if (vocab.special_unk_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: UNK token = %d '%s'\n " , __func__, vocab.special_unk_id , vocab.id_to_token [vocab.special_unk_id ].text .c_str () ); }
3558- if (vocab.special_sep_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: SEP token = %d '%s'\n " , __func__, vocab.special_sep_id , vocab.id_to_token [vocab.special_sep_id ].text .c_str () ); }
3559- if (vocab.special_pad_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: PAD token = %d '%s'\n " , __func__, vocab.special_pad_id , vocab.id_to_token [vocab.special_pad_id ].text .c_str () ); }
3560- if (vocab.special_cls_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: CLS token = %d '%s'\n " , __func__, vocab.special_cls_id , vocab.id_to_token [vocab.special_cls_id ].text .c_str () ); }
3561- if (vocab.special_mask_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: MASK token = %d '%s'\n " , __func__, vocab.special_mask_id , vocab.id_to_token [vocab.special_mask_id ].text .c_str () ); }
3562-
3563- if (vocab.linefeed_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: LF token = %d '%s'\n " , __func__, vocab.linefeed_id , vocab.id_to_token [vocab.linefeed_id ].text .c_str () ); }
3564-
3565- if (vocab.special_fim_pre_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: FIM PRE token = %d '%s'\n " , __func__, vocab.special_fim_pre_id , vocab.id_to_token [vocab.special_fim_pre_id ].text .c_str () ); }
3566- if (vocab.special_fim_suf_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: FIM SUF token = %d '%s'\n " , __func__, vocab.special_fim_suf_id , vocab.id_to_token [vocab.special_fim_suf_id ].text .c_str () ); }
3567- if (vocab.special_fim_mid_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: FIM MID token = %d '%s'\n " , __func__, vocab.special_fim_mid_id , vocab.id_to_token [vocab.special_fim_mid_id ].text .c_str () ); }
3568- if (vocab.special_fim_pad_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: FIM PAD token = %d '%s'\n " , __func__, vocab.special_fim_pad_id , vocab.id_to_token [vocab.special_fim_pad_id ].text .c_str () ); }
3569- if (vocab.special_fim_rep_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: FIM REP token = %d '%s'\n " , __func__, vocab.special_fim_rep_id , vocab.id_to_token [vocab.special_fim_rep_id ].text .c_str () ); }
3570- if (vocab.special_fim_sep_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: FIM SEP token = %d '%s'\n " , __func__, vocab.special_fim_sep_id , vocab.id_to_token [vocab.special_fim_sep_id ].text .c_str () ); }
3571-
3572- for (const auto & id : vocab.special_eog_ids ) {
3573- LLAMA_LOG_INFO ( " %s: EOG token = %d '%s'\n " , __func__, id, vocab.id_to_token [id].text .c_str () );
3574- }
3575-
3576- LLAMA_LOG_INFO (" %s: max token length = %d\n " , __func__, vocab.max_token_len );
3577-
35783550 if (arch == LLM_ARCH_DEEPSEEK) {
35793551 LLAMA_LOG_INFO (" %s: n_layer_dense_lead = %d\n " , __func__, hparams.n_layer_dense_lead );
35803552 LLAMA_LOG_INFO (" %s: n_ff_exp = %d\n " , __func__, hparams.n_ff_exp );
@@ -3604,6 +3576,8 @@ void llama_model::print_info() const {
36043576 LLAMA_LOG_INFO (" %s: f_residual_scale = %f\n " , __func__, hparams.f_residual_scale );
36053577 LLAMA_LOG_INFO (" %s: f_attention_scale = %f\n " , __func__, hparams.f_attention_scale );
36063578 }
3579+
3580+ vocab.print_info ();
36073581}
36083582
36093583ggml_backend_dev_t llama_model::dev_layer (int il) const {
@@ -3714,7 +3688,7 @@ void llama_model_free(struct llama_model * model) {
37143688}
37153689
37163690enum llama_vocab_type llama_vocab_type (const struct llama_model * model) {
3717- return model->vocab .type ;
3691+ return model->vocab .get_type () ;
37183692}
37193693
37203694int32_t llama_n_vocab (const struct llama_model * model) {
0 commit comments