@@ -1134,7 +1134,6 @@ void llm_load_vocab(llama_model_loader & ml, llama_model & model) {
11341134 vocab.special_unk_id = LLAMA_TOKEN_NULL;
11351135 vocab.special_sep_id = LLAMA_TOKEN_NULL;
11361136 vocab.special_pad_id = LLAMA_TOKEN_NULL;
1137- vocab.special_cls_id = LLAMA_TOKEN_NULL;
11381137 vocab.special_mask_id = LLAMA_TOKEN_NULL;
11391138 vocab.linefeed_id = LLAMA_TOKEN_NULL;
11401139
@@ -1155,18 +1154,16 @@ void llm_load_vocab(llama_model_loader & ml, llama_model & model) {
11551154 vocab.special_unk_id = 0 ;
11561155 vocab.special_sep_id = LLAMA_TOKEN_NULL;
11571156 vocab.special_pad_id = LLAMA_TOKEN_NULL;
1158- vocab.special_cls_id = LLAMA_TOKEN_NULL;
11591157 vocab.special_mask_id = LLAMA_TOKEN_NULL;
11601158 } else if (tokenizer_model == " bert" ) {
11611159 vocab.type = LLAMA_VOCAB_TYPE_WPM;
11621160
11631161 // default special tokens
1164- vocab.special_bos_id = LLAMA_TOKEN_NULL ;
1162+ vocab.special_bos_id = 101 ;
11651163 vocab.special_eos_id = LLAMA_TOKEN_NULL;
11661164 vocab.special_unk_id = 100 ;
11671165 vocab.special_sep_id = 102 ;
11681166 vocab.special_pad_id = 0 ;
1169- vocab.special_cls_id = 101 ;
11701167 vocab.special_mask_id = 103 ;
11711168 } else if (tokenizer_model == " gpt2" ) {
11721169 vocab.type = LLAMA_VOCAB_TYPE_BPE;
@@ -1201,7 +1198,6 @@ void llm_load_vocab(llama_model_loader & ml, llama_model & model) {
12011198 vocab.special_unk_id = LLAMA_TOKEN_NULL;
12021199 vocab.special_sep_id = LLAMA_TOKEN_NULL;
12031200 vocab.special_pad_id = LLAMA_TOKEN_NULL;
1204- vocab.special_cls_id = LLAMA_TOKEN_NULL;
12051201 vocab.special_mask_id = LLAMA_TOKEN_NULL;
12061202 } else if (tokenizer_model == " t5" ) {
12071203 vocab.type = LLAMA_VOCAB_TYPE_UGM;
@@ -1212,7 +1208,6 @@ void llm_load_vocab(llama_model_loader & ml, llama_model & model) {
12121208 vocab.special_unk_id = 2 ;
12131209 vocab.special_sep_id = LLAMA_TOKEN_NULL;
12141210 vocab.special_pad_id = 0 ;
1215- vocab.special_cls_id = LLAMA_TOKEN_NULL;
12161211 vocab.special_mask_id = LLAMA_TOKEN_NULL;
12171212
12181213 const int precompiled_charsmap_keyidx = gguf_find_key (ctx, kv (LLM_KV_TOKENIZER_PRECOMPILED_CHARSMAP).c_str ());
@@ -1495,7 +1490,6 @@ void llm_load_vocab(llama_model_loader & ml, llama_model & model) {
14951490 { LLM_KV_TOKENIZER_UNK_ID, vocab.special_unk_id },
14961491 { LLM_KV_TOKENIZER_SEP_ID, vocab.special_sep_id },
14971492 { LLM_KV_TOKENIZER_PAD_ID, vocab.special_pad_id },
1498- { LLM_KV_TOKENIZER_CLS_ID, vocab.special_cls_id },
14991493 { LLM_KV_TOKENIZER_MASK_ID, vocab.special_mask_id },
15001494 { LLM_KV_TOKENIZER_FIM_PRE_ID, vocab.special_fim_pre_id },
15011495 { LLM_KV_TOKENIZER_FIM_SUF_ID, vocab.special_fim_suf_id },
@@ -1930,7 +1924,6 @@ void llm_load_print_meta(llama_model_loader & ml, llama_model & model) {
19301924 if (vocab.special_unk_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: UNK token = %d '%s'\n " , __func__, vocab.special_unk_id , vocab.id_to_token [vocab.special_unk_id ].text .c_str () ); }
19311925 if (vocab.special_sep_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: SEP token = %d '%s'\n " , __func__, vocab.special_sep_id , vocab.id_to_token [vocab.special_sep_id ].text .c_str () ); }
19321926 if (vocab.special_pad_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: PAD token = %d '%s'\n " , __func__, vocab.special_pad_id , vocab.id_to_token [vocab.special_pad_id ].text .c_str () ); }
1933- if (vocab.special_cls_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: CLS token = %d '%s'\n " , __func__, vocab.special_cls_id , vocab.id_to_token [vocab.special_cls_id ].text .c_str () ); }
19341927 if (vocab.special_mask_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: MASK token = %d '%s'\n " , __func__, vocab.special_mask_id , vocab.id_to_token [vocab.special_mask_id ].text .c_str () ); }
19351928
19361929 if (vocab.linefeed_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: LF token = %d '%s'\n " , __func__, vocab.linefeed_id , vocab.id_to_token [vocab.linefeed_id ].text .c_str () ); }
0 commit comments