@@ -1778,7 +1778,7 @@ size_t llama_context::state_seq_load_file(llama_seq_id seq_id, const char * file
17781778 {
17791779 const size_t state_size = file.size () - file.tell ();
17801780 llama_io_read_file io (&file);
1781- const size_t nread = state_seq_read_data (io, seq_id, LLAMA_STATE_SEQ_FLAGS_NONE );
1781+ const size_t nread = state_seq_read_data (io, seq_id, 0 );
17821782 if (!nread) {
17831783 LLAMA_LOG_ERROR (" %s: failed to restore sequence state\n " , __func__);
17841784 return 0 ;
@@ -1802,7 +1802,7 @@ size_t llama_context::state_seq_save_file(llama_seq_id seq_id, const char * file
18021802
18031803 // save the context state using stream saving
18041804 llama_io_write_file io (&file);
1805- state_seq_write_data (io, seq_id, LLAMA_STATE_SEQ_FLAGS_NONE );
1805+ state_seq_write_data (io, seq_id, 0 );
18061806
18071807 const size_t res = file.tell ();
18081808 GGML_ASSERT (res == sizeof (uint32_t ) * 3 + sizeof (llama_token) * n_token_count + io.n_bytes ());
@@ -2801,15 +2801,15 @@ bool llama_state_save_file(llama_context * ctx, const char * path_session, const
28012801}
28022802
28032803size_t llama_state_seq_get_size (llama_context * ctx, llama_seq_id seq_id) {
2804- return llama_state_seq_get_size_ext (ctx, seq_id, LLAMA_STATE_SEQ_FLAGS_NONE );
2804+ return llama_state_seq_get_size_ext (ctx, seq_id, 0 );
28052805}
28062806
28072807size_t llama_state_seq_get_data (llama_context * ctx, uint8_t * dst, size_t size, llama_seq_id seq_id) {
2808- return llama_state_seq_get_data_ext (ctx, dst, size, seq_id, LLAMA_STATE_SEQ_FLAGS_NONE );
2808+ return llama_state_seq_get_data_ext (ctx, dst, size, seq_id, 0 );
28092809}
28102810
28112811size_t llama_state_seq_set_data (llama_context * ctx, const uint8_t * src, size_t size, llama_seq_id seq_id) {
2812- return llama_state_seq_set_data_ext (ctx, src, size, seq_id, LLAMA_STATE_SEQ_FLAGS_NONE );
2812+ return llama_state_seq_set_data_ext (ctx, src, size, seq_id, 0 );
28132813}
28142814
28152815size_t llama_state_seq_get_size_ext (llama_context * ctx, llama_seq_id seq_id, llama_state_seq_flags flags) {
0 commit comments