Skip to content

Commit f784700

Browse files
committed
llama : vocab pimpl cont
ggml-ci
1 parent 0f14663 commit f784700

File tree

5 files changed

+354
-264
lines changed

5 files changed

+354
-264
lines changed

src/llama-grammar.cpp

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -1092,7 +1092,7 @@ void llama_grammar_apply_impl(const struct llama_grammar & grammar, llama_token_
10921092

10931093
for (size_t i = 0; i < cur_p->size; ++i) {
10941094
const llama_token id = cur_p->data[i].id;
1095-
const std::string & piece = grammar.vocab->cache_token_to_piece.at(id);
1095+
const std::string & piece = grammar.vocab->token_to_piece(id);
10961096

10971097
if (grammar.vocab->is_eog(id)) {
10981098
if (!allow_eog) {
@@ -1124,7 +1124,7 @@ void llama_grammar_accept_impl(struct llama_grammar & grammar, llama_token token
11241124
GGML_ABORT("fatal error");
11251125
}
11261126

1127-
const std::string & piece = grammar.vocab->cache_token_to_piece.at(token);
1127+
const std::string & piece = grammar.vocab->token_to_piece(token);
11281128

11291129
// Note terminating 0 in decoded string
11301130
const auto decoded = decode_utf8(piece, grammar.partial_utf8);

src/llama-model.cpp

Lines changed: 4 additions & 30 deletions
Original file line numberDiff line numberDiff line change
@@ -3494,9 +3494,7 @@ void llama_model::print_info() const {
34943494

34953495
// hparams
34963496
LLAMA_LOG_INFO("%s: arch = %s\n", __func__, arch_name().c_str());
3497-
LLAMA_LOG_INFO("%s: vocab type = %s\n", __func__, vocab.type_name().c_str());
3498-
LLAMA_LOG_INFO("%s: n_vocab = %u\n", __func__, hparams.n_vocab);
3499-
LLAMA_LOG_INFO("%s: n_merges = %u\n", __func__, (int) vocab.bpe_ranks.size());
3497+
LLAMA_LOG_INFO("%s: n_vocab (hp) = %u\n", __func__, hparams.n_vocab);
35003498
LLAMA_LOG_INFO("%s: vocab_only = %d\n", __func__, hparams.vocab_only);
35013499

35023500
if (!hparams.vocab_only) {
@@ -3549,32 +3547,6 @@ void llama_model::print_info() const {
35493547
// general kv
35503548
LLAMA_LOG_INFO("%s: general.name = %s\n", __func__, name.c_str());
35513549

3552-
// special tokens
3553-
if (vocab.special_bos_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: BOS token = %d '%s'\n", __func__, vocab.special_bos_id, vocab.id_to_token[vocab.special_bos_id].text.c_str() ); }
3554-
if (vocab.special_eos_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: EOS token = %d '%s'\n", __func__, vocab.special_eos_id, vocab.id_to_token[vocab.special_eos_id].text.c_str() ); }
3555-
if (vocab.special_eot_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: EOT token = %d '%s'\n", __func__, vocab.special_eot_id, vocab.id_to_token[vocab.special_eot_id].text.c_str() ); }
3556-
if (vocab.special_eom_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: EOM token = %d '%s'\n", __func__, vocab.special_eom_id, vocab.id_to_token[vocab.special_eom_id].text.c_str() ); }
3557-
if (vocab.special_unk_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: UNK token = %d '%s'\n", __func__, vocab.special_unk_id, vocab.id_to_token[vocab.special_unk_id].text.c_str() ); }
3558-
if (vocab.special_sep_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: SEP token = %d '%s'\n", __func__, vocab.special_sep_id, vocab.id_to_token[vocab.special_sep_id].text.c_str() ); }
3559-
if (vocab.special_pad_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: PAD token = %d '%s'\n", __func__, vocab.special_pad_id, vocab.id_to_token[vocab.special_pad_id].text.c_str() ); }
3560-
if (vocab.special_cls_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: CLS token = %d '%s'\n", __func__, vocab.special_cls_id, vocab.id_to_token[vocab.special_cls_id].text.c_str() ); }
3561-
if (vocab.special_mask_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: MASK token = %d '%s'\n", __func__, vocab.special_mask_id, vocab.id_to_token[vocab.special_mask_id].text.c_str() ); }
3562-
3563-
if (vocab.linefeed_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: LF token = %d '%s'\n", __func__, vocab.linefeed_id, vocab.id_to_token[vocab.linefeed_id].text.c_str() ); }
3564-
3565-
if (vocab.special_fim_pre_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: FIM PRE token = %d '%s'\n", __func__, vocab.special_fim_pre_id, vocab.id_to_token[vocab.special_fim_pre_id].text.c_str() ); }
3566-
if (vocab.special_fim_suf_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: FIM SUF token = %d '%s'\n", __func__, vocab.special_fim_suf_id, vocab.id_to_token[vocab.special_fim_suf_id].text.c_str() ); }
3567-
if (vocab.special_fim_mid_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: FIM MID token = %d '%s'\n", __func__, vocab.special_fim_mid_id, vocab.id_to_token[vocab.special_fim_mid_id].text.c_str() ); }
3568-
if (vocab.special_fim_pad_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: FIM PAD token = %d '%s'\n", __func__, vocab.special_fim_pad_id, vocab.id_to_token[vocab.special_fim_pad_id].text.c_str() ); }
3569-
if (vocab.special_fim_rep_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: FIM REP token = %d '%s'\n", __func__, vocab.special_fim_rep_id, vocab.id_to_token[vocab.special_fim_rep_id].text.c_str() ); }
3570-
if (vocab.special_fim_sep_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO( "%s: FIM SEP token = %d '%s'\n", __func__, vocab.special_fim_sep_id, vocab.id_to_token[vocab.special_fim_sep_id].text.c_str() ); }
3571-
3572-
for (const auto & id : vocab.special_eog_ids) {
3573-
LLAMA_LOG_INFO( "%s: EOG token = %d '%s'\n", __func__, id, vocab.id_to_token[id].text.c_str() );
3574-
}
3575-
3576-
LLAMA_LOG_INFO("%s: max token length = %d\n", __func__, vocab.max_token_len);
3577-
35783550
if (arch == LLM_ARCH_DEEPSEEK) {
35793551
LLAMA_LOG_INFO("%s: n_layer_dense_lead = %d\n", __func__, hparams.n_layer_dense_lead);
35803552
LLAMA_LOG_INFO("%s: n_ff_exp = %d\n", __func__, hparams.n_ff_exp);
@@ -3604,6 +3576,8 @@ void llama_model::print_info() const {
36043576
LLAMA_LOG_INFO("%s: f_residual_scale = %f\n", __func__, hparams.f_residual_scale);
36053577
LLAMA_LOG_INFO("%s: f_attention_scale = %f\n", __func__, hparams.f_attention_scale);
36063578
}
3579+
3580+
vocab.print_info();
36073581
}
36083582

36093583
ggml_backend_dev_t llama_model::dev_layer(int il) const {
@@ -3714,7 +3688,7 @@ void llama_model_free(struct llama_model * model) {
37143688
}
37153689

37163690
enum llama_vocab_type llama_vocab_type(const struct llama_model * model) {
3717-
return model->vocab.type;
3691+
return model->vocab.get_type();
37183692
}
37193693

37203694
int32_t llama_n_vocab(const struct llama_model * model) {

0 commit comments

Comments
 (0)