@@ -279,35 +279,35 @@ def byref(obj: CtypesCData, offset: Optional[int] = None) -> CtypesRef[CtypesCDa
279279LLAMA_FTYPE_GUESSED = 1024
280280
281281# enum llama_rope_scaling_type {
282- # LLAMA_ROPE_SCALING_UNSPECIFIED = -1,
283- # LLAMA_ROPE_SCALING_NONE = 0,
284- # LLAMA_ROPE_SCALING_LINEAR = 1,
285- # LLAMA_ROPE_SCALING_YARN = 2,
286- # LLAMA_ROPE_SCALING_MAX_VALUE = LLAMA_ROPE_SCALING_YARN ,
282+ # LLAMA_ROPE_SCALING_TYPE_UNSPECIFIED = -1,
283+ # LLAMA_ROPE_SCALING_TYPE_NONE = 0,
284+ # LLAMA_ROPE_SCALING_TYPE_LINEAR = 1,
285+ # LLAMA_ROPE_SCALING_TYPE_YARN = 2,
286+ # LLAMA_ROPE_SCALING_TYPE_MAX_VALUE = LLAMA_ROPE_SCALING_TYPE_YARN ,
287287# };
288- LLAMA_ROPE_SCALING_UNSPECIFIED = - 1
289- LLAMA_ROPE_SCALING_NONE = 0
290- LLAMA_ROPE_SCALING_LINEAR = 1
291- LLAMA_ROPE_SCALING_YARN = 2
292- LLAMA_ROPE_SCALING_MAX_VALUE = LLAMA_ROPE_SCALING_YARN
288+ LLAMA_ROPE_SCALING_TYPE_UNSPECIFIED = - 1
289+ LLAMA_ROPE_SCALING_TYPE_NONE = 0
290+ LLAMA_ROPE_SCALING_TYPE_LINEAR = 1
291+ LLAMA_ROPE_SCALING_TYPE_YARN = 2
292+ LLAMA_ROPE_SCALING_TYPE_MAX_VALUE = LLAMA_ROPE_SCALING_TYPE_YARN
293293
294294# enum llama_pooling_type {
295- # LLAMA_POOLING_NONE = 0,
296- # LLAMA_POOLING_MEAN = 1,
297- # LLAMA_POOLING_CLS = 2,
295+ # LLAMA_POOLING_TYPE_NONE = 0,
296+ # LLAMA_POOLING_TYPE_MEAN = 1,
297+ # LLAMA_POOLING_TYPE_CLS = 2,
298298# };
299- LLAMA_POOLING_NONE = 0
300- LLAMA_POOLING_MEAN = 1
301- LLAMA_POOLING_CLS = 2
299+ LLAMA_POOLING_TYPE_NONE = 0
300+ LLAMA_POOLING_TYPE_MEAN = 1
301+ LLAMA_POOLING_TYPE_CLS = 2
302302
303303# enum llama_split_mode {
304- # LLAMA_SPLIT_NONE = 0, // single GPU
305- # LLAMA_SPLIT_LAYER = 1, // split layers and KV across GPUs
306- # LLAMA_SPLIT_ROW = 2, // split rows across GPUs
304+ # LLAMA_SPLIT_MODE_NONE = 0, // single GPU
305+ # LLAMA_SPLIT_MODE_LAYER = 1, // split layers and KV across GPUs
306+ # LLAMA_SPLIT_MODE_ROW = 2, // split rows across GPUs
307307# };
308- LLAMA_SPLIT_NONE = 0
309- LLAMA_SPLIT_LAYER = 1
310- LLAMA_SPLIT_ROW = 2
308+ LLAMA_SPLIT_MODE_NONE = 0
309+ LLAMA_SPLIT_MODE_LAYER = 1
310+ LLAMA_SPLIT_MODE_ROW = 2
311311
312312
313313# typedef struct llama_token_data {
@@ -420,13 +420,13 @@ class llama_batch(ctypes.Structure):
420420
421421
422422# enum llama_model_kv_override_type {
423- # LLAMA_KV_OVERRIDE_INT ,
424- # LLAMA_KV_OVERRIDE_FLOAT ,
425- # LLAMA_KV_OVERRIDE_BOOL ,
423+ # LLAMA_KV_OVERRIDE_TYPE_INT ,
424+ # LLAMA_KV_OVERRIDE_TYPE_FLOAT ,
425+ # LLAMA_KV_OVERRIDE_TYPE_BOOL ,
426426# };
427- LLAMA_KV_OVERRIDE_INT = 0
428- LLAMA_KV_OVERRIDE_FLOAT = 1
429- LLAMA_KV_OVERRIDE_BOOL = 2
427+ LLAMA_KV_OVERRIDE_TYPE_INT = 0
428+ LLAMA_KV_OVERRIDE_TYPE_FLOAT = 1
429+ LLAMA_KV_OVERRIDE_TYPE_BOOL = 2
430430
431431
432432# struct llama_model_kv_override {
0 commit comments