llamaR-package	llamaR-package
embed_llamar	embed_llamar
llamaR	llamaR-package
llama_backend_devices	llama_backend_devices
llama_batch_free	llama_batch_free
llama_batch_init	llama_batch_init
llama_chat_apply_template	llama_chat_apply_template
llama_chat_builtin_templates	llama_chat_builtin_templates
llama_chat_template	llama_chat_template
llama_detokenize	llama_detokenize
llama_embeddings	llama_embeddings
llama_embed_batch	llama_embed_batch
llama_encode	llama_encode
llama_free_context	llama_free_context
llama_free_model	llama_free_model
llama_generate	llama_generate
llama_get_embeddings	llama_get_embeddings
llama_get_embeddings_ith	llama_get_embeddings_ith
llama_get_embeddings_seq	llama_get_embeddings_seq
llama_get_logits	llama_get_logits
llama_get_logits_ith	llama_get_logits_ith
llama_get_model	llama_get_model
llama_get_verbosity	llama_get_verbosity
llama_hf_cache_clear	llama_hf_cache_clear
llama_hf_cache_dir	llama_hf_cache_dir
llama_hf_cache_info	llama_hf_cache_info
llama_hf_download	llama_hf_download
llama_hf_list	llama_hf_list
llama_load_model	llama_load_model
llama_load_model_hf	llama_load_model_hf
llama_lora_apply	llama_lora_apply
llama_lora_clear	llama_lora_clear
llama_lora_load	llama_lora_load
llama_lora_remove	llama_lora_remove
llama_max_devices	llama_max_devices
llama_memory_breakdown_print	llama_memory_breakdown_print
llama_memory_can_shift	llama_memory_can_shift
llama_memory_clear	llama_memory_clear
llama_memory_seq_add	llama_memory_seq_add
llama_memory_seq_cp	llama_memory_seq_cp
llama_memory_seq_div	llama_memory_seq_div
llama_memory_seq_keep	llama_memory_seq_keep
llama_memory_seq_pos_range	llama_memory_seq_pos_range
llama_memory_seq_rm	llama_memory_seq_rm
llama_model_info	llama_model_info
llama_model_meta	llama_model_meta
llama_model_meta_val	llama_model_meta_val
llama_new_context	llama_new_context
llama_numa_init	llama_numa_init
llama_n_batch	llama_n_batch
llama_n_ctx	llama_n_ctx
llama_n_ctx_seq	llama_n_ctx_seq
llama_n_seq_max	llama_n_seq_max
llama_n_threads	llama_n_threads
llama_n_threads_batch	llama_n_threads_batch
llama_n_ubatch	llama_n_ubatch
llama_perf	llama_perf
llama_perf_print	llama_perf_print
llama_perf_reset	llama_perf_reset
llama_pooling_type	llama_pooling_type
llama_set_abort_callback	llama_set_abort_callback
llama_set_causal_attn	llama_set_causal_attn
llama_set_threads	llama_set_threads
llama_set_verbosity	llama_set_verbosity
llama_set_warmup	llama_set_warmup
llama_state_get_size	llama_state_get_size
llama_state_load	llama_state_load
llama_state_save	llama_state_save
llama_supports_gpu	llama_supports_gpu
llama_supports_mlock	llama_supports_mlock
llama_supports_mmap	llama_supports_mmap
llama_supports_rpc	llama_supports_rpc
llama_synchronize	llama_synchronize
llama_system_info	llama_system_info
llama_time_us	llama_time_us
llama_tokenize	llama_tokenize
llama_token_to_piece	llama_token_to_piece
llama_vocab_get_score	llama_vocab_get_score
llama_vocab_get_text	llama_vocab_get_text
llama_vocab_info	llama_vocab_info
llama_vocab_is_control	llama_vocab_is_control
llama_vocab_is_eog	llama_vocab_is_eog
llama_vocab_type	llama_vocab_type
