yzma currently has support for over 97% of llama.cpp functionality.
This is a list of all functions exposed by llama.cpp and the current state of the associated yzma wrapper.
-
llama_backend_free -
llama_backend_init -
llama_flash_attn_type_name -
llama_max_devices -
llama_max_parallel_sequences -
llama_max_tensor_buft_overrides -
llama_numa_init -
llama_print_system_info -
llama_supports_gpu_offload -
llama_supports_mlock -
llama_supports_mmap -
llama_supports_rpc -
llama_time_us
-
llama_init_from_model -
llama_model_chat_template -
llama_model_cls_label -
llama_model_decoder_start_token -
llama_model_default_params -
llama_model_desc -
llama_model_free -
llama_model_has_decoder -
llama_model_has_encoder -
llama_model_is_diffusion -
llama_model_is_hybrid -
llama_model_is_recurrent -
llama_model_load_from_file -
llama_model_load_from_splits -
llama_model_meta_count -
llama_model_meta_key_by_index -
llama_model_meta_key_str -
llama_model_meta_val_str_by_index -
llama_model_meta_val_str -
llama_model_n_cls_out -
llama_model_n_ctx_train -
llama_model_n_embd_inp -
llama_model_n_embd_out -
llama_model_n_embd -
llama_model_n_head_kv -
llama_model_n_head -
llama_model_n_layer -
llama_model_n_params -
llama_model_n_swa -
llama_model_quantize_default_params -
llama_model_quantize -
llama_model_rope_freq_scale_train -
llama_model_rope_type -
llama_model_save_to_file -
llama_model_size -
llama_params_fit -
llama_split_path -
llama_split_prefix
-
llama_model_get_vocab -
llama_token_to_piece -
llama_tokenize -
llama_vocab_bos -
llama_vocab_eos -
llama_vocab_eot -
llama_vocab_fim_mid -
llama_vocab_fim_pad -
llama_vocab_fim_pre -
llama_vocab_fim_rep -
llama_vocab_fim_sep -
llama_vocab_fim_suf -
llama_vocab_get_add_bos -
llama_vocab_get_add_eos -
llama_vocab_get_add_sep -
llama_vocab_get_attr -
llama_vocab_get_score -
llama_vocab_get_text -
llama_vocab_is_control -
llama_vocab_is_eog -
llama_vocab_mask -
llama_vocab_n_tokens -
llama_vocab_nl -
llama_vocab_pad -
llama_vocab_sep -
llama_vocab_type
-
llama_attach_threadpool -
llama_context_default_params -
llama_decode -
llama_detach_threadpool -
llama_encode -
llama_free -
llama_get_embeddings_ith -
llama_get_embeddings_seq -
llama_get_embeddings -
llama_get_logits_ith -
llama_get_logits -
llama_get_memory -
llama_get_model -
llama_n_batch -
llama_n_ctx_seq -
llama_n_ctx -
llama_n_seq_max -
llama_n_threads_batch -
llama_n_threads -
llama_n_ubatch -
llama_perf_context_reset -
llama_pooling_type -
llama_set_adapter_cvec -
llama_set_causal_attn -
llama_set_embeddings -
llama_set_n_threads -
llama_set_warmup -
llama_synchronize
-
llama_memory_can_shift -
llama_memory_clear -
llama_memory_seq_add -
llama_memory_seq_cp -
llama_memory_seq_div -
llama_memory_seq_keep -
llama_memory_seq_pos_max -
llama_memory_seq_pos_min -
llama_memory_seq_rm
-
llama_batch_free -
llama_batch_get_one -
llama_batch_init
-
llama_sampler_accept -
llama_sampler_apply -
llama_sampler_chain_add -
llama_sampler_chain_default_params -
llama_sampler_chain_get -
llama_sampler_chain_init -
llama_sampler_chain_n -
llama_sampler_chain_remove -
llama_sampler_clone -
llama_sampler_free -
llama_sampler_get_seed -
llama_sampler_init_dist -
llama_sampler_init_dry -
llama_sampler_init_grammar_lazy_patterns -
llama_sampler_init_grammar -
llama_sampler_init_greedy -
llama_sampler_init_infill -
llama_sampler_init_logit_bias -
llama_sampler_init_min_p -
llama_sampler_init_mirostat_v2 -
llama_sampler_init_mirostat -
llama_sampler_init_penalties -
llama_sampler_init_temp_ext -
llama_sampler_init_top_k -
llama_sampler_init_top_n_sigma -
llama_sampler_init_top_p -
llama_sampler_init_typical -
llama_sampler_init_xtc -
llama_sampler_name -
llama_sampler_reset -
llama_sampler_sample -
llama_set_sampler
-
llama_log_get -
llama_log_set
-
llama_chat_apply_template
-
llama_state_get_data -
llama_state_get_size -
llama_state_load_file -
llama_state_save_file -
llama_state_seq_get_data_ext -
llama_state_seq_get_data -
llama_state_seq_get_size_ext -
llama_state_seq_get_size -
llama_state_seq_load_file -
llama_state_seq_save_file -
llama_state_seq_set_data_ext -
llama_state_seq_set_data -
llama_state_set_data
-
llama_adapter_get_alora_invocation_tokens -
llama_adapter_get_alora_n_invocation_tokens -
llama_adapter_lora_free -
llama_adapter_lora_init -
llama_adapter_meta_count -
llama_adapter_meta_key_by_index -
llama_adapter_meta_val_str_by_index -
llama_adapter_meta_val_str -
llama_set_adapters_lora
Note that these functions are considered by llama.cpp to be experimental, and are subject to change.
-
mtmd_bitmap_free -
mtmd_bitmap_get_data -
mtmd_bitmap_get_id -
mtmd_bitmap_get_n_bytes -
mtmd_bitmap_get_nx -
mtmd_bitmap_get_ny -
mtmd_bitmap_init_from_audio -
mtmd_bitmap_init -
mtmd_bitmap_is_audio -
mtmd_bitmap_set_id -
mtmd_context_params_default -
mtmd_decode_use_mrope -
mtmd_decode_use_non_causal -
mtmd_default_marker -
mtmd_encode_chunk -
mtmd_encode -
mtmd_free -
mtmd_get_audio_bitrate -
mtmd_get_output_embd -
mtmd_helper_bitmap_init_from_buf -
mtmd_helper_bitmap_init_from_file -
mtmd_helper_eval_chunks -
mtmd_image_tokens_get_id -
mtmd_image_tokens_get_n_pos -
mtmd_image_tokens_get_n_tokens -
mtmd_image_tokens_get_nx -
mtmd_image_tokens_get_ny -
mtmd_init_from_file -
mtmd_input_chunk_copy -
mtmd_input_chunk_free -
mtmd_input_chunk_get_id -
mtmd_input_chunk_get_n_pos -
mtmd_input_chunk_get_n_tokens -
mtmd_input_chunk_get_tokens_image -
mtmd_input_chunk_get_tokens_image -
mtmd_input_chunk_get_tokens_text -
mtmd_input_chunk_get_type -
mtmd_input_chunks_free -
mtmd_input_chunks_get -
mtmd_input_chunks_init -
mtmd_input_chunks_size -
mtmd_support_audio -
mtmd_support_vision -
mtmd_tokenize
-
llama_model_init_from_user -
llama_opt_epoch -
llama_opt_init -
llama_opt_param_filter_all -
llama_sampler_init