|
183 | 183 | llama_memory_i_p = NewType("llama_memory_i_p", int) |
184 | 184 | llama_memory_i_p_ctypes = ctypes.c_void_p |
185 | 185 |
|
186 | | -# // DEPRECATED (use llama_memory instead) |
187 | | -llama_kv_cache_p = NewType("llama_kv_cache_p", int) |
188 | | -llama_kv_cache_p_ctypes = ctypes.c_void_p |
189 | | - |
190 | 186 | # typedef int32_t llama_pos; |
191 | 187 | llama_pos = ctypes.c_int32 |
192 | 188 | # typedef int32_t llama_token; |
@@ -1391,8 +1387,6 @@ def llama_n_seq_max(ctx: llama_context_p, /) -> int: |
1391 | 1387 | ... |
1392 | 1388 |
|
1393 | 1389 |
|
1394 | | - |
1395 | | - |
1396 | 1390 | # DEPRECATED(LLAMA_API int32_t llama_n_ctx_train(const struct llama_model * model), "use llama_model_n_ctx_train instead"); |
1397 | 1391 | @ctypes_function("llama_n_ctx_train", [llama_model_p_ctypes], ctypes.c_int32) |
1398 | 1392 | def llama_n_ctx_train(model: llama_model_p, /) -> int: |
@@ -1428,11 +1422,6 @@ def llama_n_vocab(model: llama_vocab_p, /) -> int: |
1428 | 1422 | def llama_get_model(ctx: llama_context_p, /) -> Optional[llama_model_p]: |
1429 | 1423 | ... |
1430 | 1424 |
|
1431 | | -# DEPRECATED(LLAMA_API struct llama_kv_cache * llama_get_kv_self(struct llama_context * ctx), "use llama_get_memory instead"); |
1432 | | -@ctypes_function("llama_get_kv_self", [llama_context_p_ctypes], llama_kv_cache_p_ctypes) |
1433 | | -def llama_get_kv_self(ctx: llama_context_p, /) -> Optional[llama_kv_cache_p]: |
1434 | | - "use llama_get_memory instead" |
1435 | | - ... |
1436 | 1425 |
|
1437 | 1426 | # LLAMA_API llama_memory_t llama_get_memory (const struct llama_context * ctx); |
1438 | 1427 | @ctypes_function("llama_get_memory", [llama_context_p_ctypes], llama_memory_i_p_ctypes) |
|
0 commit comments