Skip to content

Latest commit

 

History

History
262 lines (242 loc) · 7.31 KB

File metadata and controls

262 lines (242 loc) · 7.31 KB

Roadmap

yzma currently has support for over 97% of llama.cpp functionality.

This is a list of all functions exposed by llama.cpp and the current state of the associated yzma wrapper.

Completed wrappers

Backend Functions

  • llama_backend_free
  • llama_backend_init
  • llama_flash_attn_type_name
  • llama_max_devices
  • llama_max_parallel_sequences
  • llama_max_tensor_buft_overrides
  • llama_numa_init
  • llama_print_system_info
  • llama_supports_gpu_offload
  • llama_supports_mlock
  • llama_supports_mmap
  • llama_supports_rpc
  • llama_time_us

Model Functions

  • llama_init_from_model
  • llama_model_chat_template
  • llama_model_cls_label
  • llama_model_decoder_start_token
  • llama_model_default_params
  • llama_model_desc
  • llama_model_free
  • llama_model_has_decoder
  • llama_model_has_encoder
  • llama_model_is_diffusion
  • llama_model_is_hybrid
  • llama_model_is_recurrent
  • llama_model_load_from_file
  • llama_model_load_from_splits
  • llama_model_meta_count
  • llama_model_meta_key_by_index
  • llama_model_meta_key_str
  • llama_model_meta_val_str_by_index
  • llama_model_meta_val_str
  • llama_model_n_cls_out
  • llama_model_n_ctx_train
  • llama_model_n_embd_inp
  • llama_model_n_embd_out
  • llama_model_n_embd
  • llama_model_n_head_kv
  • llama_model_n_head
  • llama_model_n_layer
  • llama_model_n_params
  • llama_model_n_swa
  • llama_model_quantize_default_params
  • llama_model_quantize
  • llama_model_rope_freq_scale_train
  • llama_model_rope_type
  • llama_model_save_to_file
  • llama_model_size
  • llama_params_fit
  • llama_split_path
  • llama_split_prefix

Vocab Functions

  • llama_model_get_vocab
  • llama_token_to_piece
  • llama_tokenize
  • llama_vocab_bos
  • llama_vocab_eos
  • llama_vocab_eot
  • llama_vocab_fim_mid
  • llama_vocab_fim_pad
  • llama_vocab_fim_pre
  • llama_vocab_fim_rep
  • llama_vocab_fim_sep
  • llama_vocab_fim_suf
  • llama_vocab_get_add_bos
  • llama_vocab_get_add_eos
  • llama_vocab_get_add_sep
  • llama_vocab_get_attr
  • llama_vocab_get_score
  • llama_vocab_get_text
  • llama_vocab_is_control
  • llama_vocab_is_eog
  • llama_vocab_mask
  • llama_vocab_n_tokens
  • llama_vocab_nl
  • llama_vocab_pad
  • llama_vocab_sep
  • llama_vocab_type

Context Functions

  • llama_attach_threadpool
  • llama_context_default_params
  • llama_decode
  • llama_detach_threadpool
  • llama_encode
  • llama_free
  • llama_get_embeddings_ith
  • llama_get_embeddings_seq
  • llama_get_embeddings
  • llama_get_logits_ith
  • llama_get_logits
  • llama_get_memory
  • llama_get_model
  • llama_n_batch
  • llama_n_ctx_seq
  • llama_n_ctx
  • llama_n_seq_max
  • llama_n_threads_batch
  • llama_n_threads
  • llama_n_ubatch
  • llama_perf_context_reset
  • llama_pooling_type
  • llama_set_adapter_cvec
  • llama_set_causal_attn
  • llama_set_embeddings
  • llama_set_n_threads
  • llama_set_warmup
  • llama_synchronize

Memory Functions

  • llama_memory_can_shift
  • llama_memory_clear
  • llama_memory_seq_add
  • llama_memory_seq_cp
  • llama_memory_seq_div
  • llama_memory_seq_keep
  • llama_memory_seq_pos_max
  • llama_memory_seq_pos_min
  • llama_memory_seq_rm

Batch Functions

  • llama_batch_free
  • llama_batch_get_one
  • llama_batch_init

Sampling Functions

  • llama_sampler_accept
  • llama_sampler_apply
  • llama_sampler_chain_add
  • llama_sampler_chain_default_params
  • llama_sampler_chain_get
  • llama_sampler_chain_init
  • llama_sampler_chain_n
  • llama_sampler_chain_remove
  • llama_sampler_clone
  • llama_sampler_free
  • llama_sampler_get_seed
  • llama_sampler_init_dist
  • llama_sampler_init_dry
  • llama_sampler_init_grammar_lazy_patterns
  • llama_sampler_init_grammar
  • llama_sampler_init_greedy
  • llama_sampler_init_infill
  • llama_sampler_init_logit_bias
  • llama_sampler_init_min_p
  • llama_sampler_init_mirostat_v2
  • llama_sampler_init_mirostat
  • llama_sampler_init_penalties
  • llama_sampler_init_temp_ext
  • llama_sampler_init_top_k
  • llama_sampler_init_top_n_sigma
  • llama_sampler_init_top_p
  • llama_sampler_init_typical
  • llama_sampler_init_xtc
  • llama_sampler_name
  • llama_sampler_reset
  • llama_sampler_sample
  • llama_set_sampler

Logging Functions

  • llama_log_get
  • llama_log_set

Chat Functions

  • llama_chat_apply_template

State Functions

  • llama_state_get_data
  • llama_state_get_size
  • llama_state_load_file
  • llama_state_save_file
  • llama_state_seq_get_data_ext
  • llama_state_seq_get_data
  • llama_state_seq_get_size_ext
  • llama_state_seq_get_size
  • llama_state_seq_load_file
  • llama_state_seq_save_file
  • llama_state_seq_set_data_ext
  • llama_state_seq_set_data
  • llama_state_set_data

LoRA Functions

  • llama_adapter_get_alora_invocation_tokens
  • llama_adapter_get_alora_n_invocation_tokens
  • llama_adapter_lora_free
  • llama_adapter_lora_init
  • llama_adapter_meta_count
  • llama_adapter_meta_key_by_index
  • llama_adapter_meta_val_str_by_index
  • llama_adapter_meta_val_str
  • llama_set_adapters_lora

mtmd Functions

Note that these functions are considered by llama.cpp to be experimental, and are subject to change.

  • mtmd_bitmap_free
  • mtmd_bitmap_get_data
  • mtmd_bitmap_get_id
  • mtmd_bitmap_get_n_bytes
  • mtmd_bitmap_get_nx
  • mtmd_bitmap_get_ny
  • mtmd_bitmap_init_from_audio
  • mtmd_bitmap_init
  • mtmd_bitmap_is_audio
  • mtmd_bitmap_set_id
  • mtmd_context_params_default
  • mtmd_decode_use_mrope
  • mtmd_decode_use_non_causal
  • mtmd_default_marker
  • mtmd_encode_chunk
  • mtmd_encode
  • mtmd_free
  • mtmd_get_audio_bitrate
  • mtmd_get_output_embd
  • mtmd_helper_bitmap_init_from_buf
  • mtmd_helper_bitmap_init_from_file
  • mtmd_helper_eval_chunks
  • mtmd_image_tokens_get_id
  • mtmd_image_tokens_get_n_pos
  • mtmd_image_tokens_get_n_tokens
  • mtmd_image_tokens_get_nx
  • mtmd_image_tokens_get_ny
  • mtmd_init_from_file
  • mtmd_input_chunk_copy
  • mtmd_input_chunk_free
  • mtmd_input_chunk_get_id
  • mtmd_input_chunk_get_n_pos
  • mtmd_input_chunk_get_n_tokens
  • mtmd_input_chunk_get_tokens_image
  • mtmd_input_chunk_get_tokens_image
  • mtmd_input_chunk_get_tokens_text
  • mtmd_input_chunk_get_type
  • mtmd_input_chunks_free
  • mtmd_input_chunks_get
  • mtmd_input_chunks_init
  • mtmd_input_chunks_size
  • mtmd_support_audio
  • mtmd_support_vision
  • mtmd_tokenize

Functions in llama.cpp still needing wrappers

  • llama_model_init_from_user
  • llama_opt_epoch
  • llama_opt_init
  • llama_opt_param_filter_all
  • llama_sampler_init