@@ -130,11 +130,14 @@ export async function endpointOai(
130130 } ) ;
131131
132132 const parameters = { ...model . parameters , ...generateSettings } ;
133+ const parsedMaxTokens = Number ( config . DEFAULT_MAX_TOKENS ) ;
134+ const defaultMaxTokens =
135+ Number . isInteger ( parsedMaxTokens ) && parsedMaxTokens > 0 ? parsedMaxTokens : undefined ;
133136 const body : CompletionCreateParamsStreaming = {
134137 model : model . id ?? model . name ,
135138 prompt,
136139 stream : true ,
137- max_tokens : parameters ?. max_tokens ,
140+ max_tokens : parameters ?. max_tokens ?? defaultMaxTokens ,
138141 stop : parameters ?. stop ,
139142 temperature : parameters ?. temperature ,
140143 top_p : parameters ?. top_p ,
@@ -195,14 +198,18 @@ export async function endpointOai(
195198
196199 // Combine model defaults with request-specific parameters
197200 const parameters = { ...model . parameters , ...generateSettings } ;
201+ const parsedMaxTokens = Number ( config . DEFAULT_MAX_TOKENS ) ;
202+ const defaultMaxTokens =
203+ Number . isInteger ( parsedMaxTokens ) && parsedMaxTokens > 0 ? parsedMaxTokens : undefined ;
204+ const effectiveMaxTokens = parameters ?. max_tokens ?? defaultMaxTokens ;
198205 const body = {
199206 model : model . id ?? model . name ,
200207 messages : messagesOpenAI ,
201208 stream : streamingSupported ,
202209 // Support two different ways of specifying token limits depending on the model
203210 ...( useCompletionTokens
204- ? { max_completion_tokens : parameters ?. max_tokens }
205- : { max_tokens : parameters ?. max_tokens } ) ,
211+ ? { max_completion_tokens : effectiveMaxTokens }
212+ : { max_tokens : effectiveMaxTokens } ) ,
206213 stop : parameters ?. stop ,
207214 temperature : parameters ?. temperature ,
208215 top_p : parameters ?. top_p ,
0 commit comments