Skip to content

Commit 5bc50c8

Browse files
committed
Sync model : Granite docling + Idefics3 preprocessing (SmolVLM)
1 parent 0aea604 commit 5bc50c8

File tree

1 file changed

+42
-40
lines changed

1 file changed

+42
-40
lines changed

llama_cpp/llama_cpp.py

Lines changed: 42 additions & 40 deletions
Original file line numberDiff line numberDiff line change
@@ -223,46 +223,47 @@
223223
# NOTE: Deprecated and will be removed in the future. (already gone in llama.cpp)
224224
# // pre-tokenization types
225225
# enum llama_vocab_pre_type {
226-
# LLAMA_VOCAB_PRE_TYPE_DEFAULT = 0,
227-
# LLAMA_VOCAB_PRE_TYPE_LLAMA3 = 1,
228-
# LLAMA_VOCAB_PRE_TYPE_DEEPSEEK_LLM = 2,
229-
# LLAMA_VOCAB_PRE_TYPE_DEEPSEEK_CODER = 3,
230-
# LLAMA_VOCAB_PRE_TYPE_FALCON = 4,
231-
# LLAMA_VOCAB_PRE_TYPE_MPT = 5,
232-
# LLAMA_VOCAB_PRE_TYPE_STARCODER = 6,
233-
# LLAMA_VOCAB_PRE_TYPE_GPT2 = 7,
234-
# LLAMA_VOCAB_PRE_TYPE_REFACT = 8,
235-
# LLAMA_VOCAB_PRE_TYPE_COMMAND_R = 9,
236-
# LLAMA_VOCAB_PRE_TYPE_STABLELM2 = 10,
237-
# LLAMA_VOCAB_PRE_TYPE_QWEN2 = 11,
238-
# LLAMA_VOCAB_PRE_TYPE_OLMO = 12,
239-
# LLAMA_VOCAB_PRE_TYPE_DBRX = 13,
240-
# LLAMA_VOCAB_PRE_TYPE_SMAUG = 14,
241-
# LLAMA_VOCAB_PRE_TYPE_PORO = 15,
242-
# LLAMA_VOCAB_PRE_TYPE_CHATGLM3 = 16,
243-
# LLAMA_VOCAB_PRE_TYPE_CHATGLM4 = 17,
244-
# LLAMA_VOCAB_PRE_TYPE_VIKING = 18,
245-
# LLAMA_VOCAB_PRE_TYPE_JAIS = 19,
246-
# LLAMA_VOCAB_PRE_TYPE_TEKKEN = 20,
247-
# LLAMA_VOCAB_PRE_TYPE_SMOLLM = 21,
248-
# LLAMA_VOCAB_PRE_TYPE_CODESHELL = 22,
249-
# LLAMA_VOCAB_PRE_TYPE_BLOOM = 23,
250-
# LLAMA_VOCAB_PRE_TYPE_GPT3_FINNISH = 24,
251-
# LLAMA_VOCAB_PRE_TYPE_EXAONE = 25,
252-
# LLAMA_VOCAB_PRE_TYPE_CHAMELEON = 26,
253-
# LLAMA_VOCAB_PRE_TYPE_MINERVA = 27,
254-
# LLAMA_VOCAB_PRE_TYPE_DEEPSEEK3_LLM = 28,
255-
# LLAMA_VOCAB_PRE_TYPE_GPT4O = 29,
256-
# LLAMA_VOCAB_PRE_TYPE_SUPERBPE = 30,
257-
# LLAMA_VOCAB_PRE_TYPE_TRILLION = 31,
258-
# LLAMA_VOCAB_PRE_TYPE_BAILINGMOE = 32,
259-
# LLAMA_VOCAB_PRE_TYPE_LLAMA4 = 33,
260-
# LLAMA_VOCAB_PRE_TYPE_PIXTRAL = 34,
261-
# LLAMA_VOCAB_PRE_TYPE_SEED_CODER = 35,
262-
# LLAMA_VOCAB_PRE_TYPE_HUNYUAN = 36,
263-
# LLAMA_VOCAB_PRE_TYPE_KIMI_K2 = 37,
264-
# LLAMA_VOCAB_PRE_TYPE_HUNYUAN_DENSE = 38,
265-
# LLAMA_VOCAB_PRE_TYPE_GROK_2 = 39,
226+
# LLAMA_VOCAB_PRE_TYPE_DEFAULT = 0,
227+
# LLAMA_VOCAB_PRE_TYPE_LLAMA3 = 1,
228+
# LLAMA_VOCAB_PRE_TYPE_DEEPSEEK_LLM = 2,
229+
# LLAMA_VOCAB_PRE_TYPE_DEEPSEEK_CODER = 3,
230+
# LLAMA_VOCAB_PRE_TYPE_FALCON = 4,
231+
# LLAMA_VOCAB_PRE_TYPE_MPT = 5,
232+
# LLAMA_VOCAB_PRE_TYPE_STARCODER = 6,
233+
# LLAMA_VOCAB_PRE_TYPE_GPT2 = 7,
234+
# LLAMA_VOCAB_PRE_TYPE_REFACT = 8,
235+
# LLAMA_VOCAB_PRE_TYPE_COMMAND_R = 9,
236+
# LLAMA_VOCAB_PRE_TYPE_STABLELM2 = 10,
237+
# LLAMA_VOCAB_PRE_TYPE_QWEN2 = 11,
238+
# LLAMA_VOCAB_PRE_TYPE_OLMO = 12,
239+
# LLAMA_VOCAB_PRE_TYPE_DBRX = 13,
240+
# LLAMA_VOCAB_PRE_TYPE_SMAUG = 14,
241+
# LLAMA_VOCAB_PRE_TYPE_PORO = 15,
242+
# LLAMA_VOCAB_PRE_TYPE_CHATGLM3 = 16,
243+
# LLAMA_VOCAB_PRE_TYPE_CHATGLM4 = 17,
244+
# LLAMA_VOCAB_PRE_TYPE_VIKING = 18,
245+
# LLAMA_VOCAB_PRE_TYPE_JAIS = 19,
246+
# LLAMA_VOCAB_PRE_TYPE_TEKKEN = 20,
247+
# LLAMA_VOCAB_PRE_TYPE_SMOLLM = 21,
248+
# LLAMA_VOCAB_PRE_TYPE_CODESHELL = 22,
249+
# LLAMA_VOCAB_PRE_TYPE_BLOOM = 23,
250+
# LLAMA_VOCAB_PRE_TYPE_GPT3_FINNISH = 24,
251+
# LLAMA_VOCAB_PRE_TYPE_EXAONE = 25,
252+
# LLAMA_VOCAB_PRE_TYPE_CHAMELEON = 26,
253+
# LLAMA_VOCAB_PRE_TYPE_MINERVA = 27,
254+
# LLAMA_VOCAB_PRE_TYPE_DEEPSEEK3_LLM = 28,
255+
# LLAMA_VOCAB_PRE_TYPE_GPT4O = 29,
256+
# LLAMA_VOCAB_PRE_TYPE_SUPERBPE = 30,
257+
# LLAMA_VOCAB_PRE_TYPE_TRILLION = 31,
258+
# LLAMA_VOCAB_PRE_TYPE_BAILINGMOE = 32,
259+
# LLAMA_VOCAB_PRE_TYPE_LLAMA4 = 33,
260+
# LLAMA_VOCAB_PRE_TYPE_PIXTRAL = 34,
261+
# LLAMA_VOCAB_PRE_TYPE_SEED_CODER = 35,
262+
# LLAMA_VOCAB_PRE_TYPE_HUNYUAN = 36,
263+
# LLAMA_VOCAB_PRE_TYPE_KIMI_K2 = 37,
264+
# LLAMA_VOCAB_PRE_TYPE_HUNYUAN_DENSE = 38,
265+
# LLAMA_VOCAB_PRE_TYPE_GROK_2 = 39,
266+
# LLAMA_VOCAB_PRE_TYPE_GRANITE_DOCLING = 40,
266267
# };
267268
LLAMA_VOCAB_PRE_TYPE_DEFAULT = 0
268269
LLAMA_VOCAB_PRE_TYPE_LLAMA3 = 1
@@ -304,6 +305,7 @@
304305
LLAMA_VOCAB_PRE_TYPE_KIMI_K2 = 37
305306
LLAMA_VOCAB_PRE_TYPE_HUNYUAN_DENSE = 38
306307
LLAMA_VOCAB_PRE_TYPE_GROK_2 = 39
308+
LLAMA_VOCAB_PRE_TYPE_GRANITE_DOCLING = 40
307309

308310

309311
# // note: these values should be synchronized with ggml_rope

0 commit comments

Comments
 (0)