Skip to content

Commit c2b5cfb

Browse files
committed
llama : remove flags value for NONE
1 parent e7d2ecd commit c2b5cfb

File tree

7 files changed

+15
-16
lines changed

7 files changed

+15
-16
lines changed

include/llama.h

Lines changed: 0 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -870,7 +870,6 @@ extern "C" {
870870
size_t n_token_capacity,
871871
size_t * n_token_count_out);
872872

873-
#define LLAMA_STATE_SEQ_FLAGS_NONE 0
874873
#define LLAMA_STATE_SEQ_FLAGS_SWA_ONLY 1
875874

876875
typedef uint32_t llama_state_seq_flags;

src/llama-context.cpp

Lines changed: 5 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -1778,7 +1778,7 @@ size_t llama_context::state_seq_load_file(llama_seq_id seq_id, const char * file
17781778
{
17791779
const size_t state_size = file.size() - file.tell();
17801780
llama_io_read_file io(&file);
1781-
const size_t nread = state_seq_read_data(io, seq_id, LLAMA_STATE_SEQ_FLAGS_NONE);
1781+
const size_t nread = state_seq_read_data(io, seq_id, 0);
17821782
if (!nread) {
17831783
LLAMA_LOG_ERROR("%s: failed to restore sequence state\n", __func__);
17841784
return 0;
@@ -1802,7 +1802,7 @@ size_t llama_context::state_seq_save_file(llama_seq_id seq_id, const char * file
18021802

18031803
// save the context state using stream saving
18041804
llama_io_write_file io(&file);
1805-
state_seq_write_data(io, seq_id, LLAMA_STATE_SEQ_FLAGS_NONE);
1805+
state_seq_write_data(io, seq_id, 0);
18061806

18071807
const size_t res = file.tell();
18081808
GGML_ASSERT(res == sizeof(uint32_t) * 3 + sizeof(llama_token) * n_token_count + io.n_bytes());
@@ -2801,15 +2801,15 @@ bool llama_state_save_file(llama_context * ctx, const char * path_session, const
28012801
}
28022802

28032803
size_t llama_state_seq_get_size(llama_context * ctx, llama_seq_id seq_id) {
2804-
return llama_state_seq_get_size_ext(ctx, seq_id, LLAMA_STATE_SEQ_FLAGS_NONE);
2804+
return llama_state_seq_get_size_ext(ctx, seq_id, 0);
28052805
}
28062806

28072807
size_t llama_state_seq_get_data(llama_context * ctx, uint8_t * dst, size_t size, llama_seq_id seq_id) {
2808-
return llama_state_seq_get_data_ext(ctx, dst, size, seq_id, LLAMA_STATE_SEQ_FLAGS_NONE);
2808+
return llama_state_seq_get_data_ext(ctx, dst, size, seq_id, 0);
28092809
}
28102810

28112811
size_t llama_state_seq_set_data(llama_context * ctx, const uint8_t * src, size_t size, llama_seq_id seq_id) {
2812-
return llama_state_seq_set_data_ext(ctx, src, size, seq_id, LLAMA_STATE_SEQ_FLAGS_NONE);
2812+
return llama_state_seq_set_data_ext(ctx, src, size, seq_id, 0);
28132813
}
28142814

28152815
size_t llama_state_seq_get_size_ext(llama_context * ctx, llama_seq_id seq_id, llama_state_seq_flags flags) {

src/llama-kv-cache-unified-iswa.h

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -56,8 +56,8 @@ class llama_kv_cache_unified_iswa : public llama_memory_i {
5656

5757
// state write/load
5858

59-
void state_write(llama_io_write_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = LLAMA_STATE_SEQ_FLAGS_NONE) const override;
60-
void state_read (llama_io_read_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = LLAMA_STATE_SEQ_FLAGS_NONE) override;
59+
void state_write(llama_io_write_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = 0) const override;
60+
void state_read (llama_io_read_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = 0) override;
6161

6262
//
6363
// llama_kv_cache_unified_iswa specific API

src/llama-kv-cache-unified.h

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -136,8 +136,8 @@ class llama_kv_cache_unified : public llama_memory_i {
136136

137137
// state write/load
138138

139-
void state_write(llama_io_write_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = LLAMA_STATE_SEQ_FLAGS_NONE) const override;
140-
void state_read (llama_io_read_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = LLAMA_STATE_SEQ_FLAGS_NONE) override;
139+
void state_write(llama_io_write_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = 0) const override;
140+
void state_read (llama_io_read_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = 0) override;
141141

142142
//
143143
// llama_kv_cache_unified specific API

src/llama-memory-hybrid.h

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -74,8 +74,8 @@ class llama_memory_hybrid : public llama_memory_i {
7474

7575
// state write/load
7676

77-
void state_write(llama_io_write_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = LLAMA_STATE_SEQ_FLAGS_NONE) const override;
78-
void state_read (llama_io_read_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = LLAMA_STATE_SEQ_FLAGS_NONE) override;
77+
void state_write(llama_io_write_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = 0) const override;
78+
void state_read (llama_io_read_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = 0) override;
7979

8080
//
8181
// llama_memory_hybrid specific API

src/llama-memory-recurrent.h

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -63,8 +63,8 @@ class llama_memory_recurrent : public llama_memory_i {
6363

6464
// state write/load
6565

66-
void state_write(llama_io_write_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = LLAMA_STATE_SEQ_FLAGS_NONE) const override;
67-
void state_read (llama_io_read_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = LLAMA_STATE_SEQ_FLAGS_NONE) override;
66+
void state_write(llama_io_write_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = 0) const override;
67+
void state_read (llama_io_read_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = 0) override;
6868

6969
uint32_t head = 0; // the location where the batch will be placed in the cache (see find_slot())
7070
uint32_t size = 0; // total number of cells, shared across all sequences

src/llama-memory.h

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -104,8 +104,8 @@ struct llama_memory_i {
104104
// state write/read
105105
//
106106

107-
virtual void state_write(llama_io_write_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = LLAMA_STATE_SEQ_FLAGS_NONE) const = 0;
108-
virtual void state_read (llama_io_read_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = LLAMA_STATE_SEQ_FLAGS_NONE) = 0;
107+
virtual void state_write(llama_io_write_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = 0) const = 0;
108+
virtual void state_read (llama_io_read_i & io, llama_seq_id seq_id = -1, llama_state_seq_flags flags = 0) = 0;
109109
};
110110

111111
using llama_memory_ptr = std::unique_ptr<llama_memory_i>;

0 commit comments

Comments
 (0)