@@ -38,8 +38,8 @@ describe('OpenAI integration', () => {
38
38
// Second span - responses API
39
39
expect . objectContaining ( {
40
40
data : {
41
- 'gen_ai.operation.name' : 'chat ' ,
42
- 'sentry.op' : 'gen_ai.chat ' ,
41
+ 'gen_ai.operation.name' : 'responses ' ,
42
+ 'sentry.op' : 'gen_ai.responses ' ,
43
43
'sentry.origin' : 'manual' ,
44
44
'gen_ai.system' : 'openai' ,
45
45
'gen_ai.request.model' : 'gpt-3.5-turbo' ,
@@ -55,8 +55,8 @@ describe('OpenAI integration', () => {
55
55
'openai.usage.completion_tokens' : 8 ,
56
56
'openai.usage.prompt_tokens' : 5 ,
57
57
} ,
58
- description : 'chat gpt-3.5-turbo' ,
59
- op : 'gen_ai.chat ' ,
58
+ description : 'responses gpt-3.5-turbo' ,
59
+ op : 'gen_ai.responses ' ,
60
60
origin : 'manual' ,
61
61
status : 'ok' ,
62
62
} ) ,
@@ -105,8 +105,8 @@ describe('OpenAI integration', () => {
105
105
// Fifth span - responses API streaming
106
106
expect . objectContaining ( {
107
107
data : {
108
- 'gen_ai.operation.name' : 'chat ' ,
109
- 'sentry.op' : 'gen_ai.chat ' ,
108
+ 'gen_ai.operation.name' : 'responses ' ,
109
+ 'sentry.op' : 'gen_ai.responses ' ,
110
110
'sentry.origin' : 'manual' ,
111
111
'gen_ai.system' : 'openai' ,
112
112
'gen_ai.request.model' : 'gpt-4' ,
@@ -124,8 +124,8 @@ describe('OpenAI integration', () => {
124
124
'openai.usage.completion_tokens' : 10 ,
125
125
'openai.usage.prompt_tokens' : 6 ,
126
126
} ,
127
- description : 'chat gpt-4 stream-response' ,
128
- op : 'gen_ai.chat ' ,
127
+ description : 'responses gpt-4 stream-response' ,
128
+ op : 'gen_ai.responses ' ,
129
129
origin : 'manual' ,
130
130
status : 'ok' ,
131
131
} ) ,
@@ -182,8 +182,8 @@ describe('OpenAI integration', () => {
182
182
// Second span - responses API with PII
183
183
expect . objectContaining ( {
184
184
data : {
185
- 'gen_ai.operation.name' : 'chat ' ,
186
- 'sentry.op' : 'gen_ai.chat ' ,
185
+ 'gen_ai.operation.name' : 'responses ' ,
186
+ 'sentry.op' : 'gen_ai.responses ' ,
187
187
'sentry.origin' : 'manual' ,
188
188
'gen_ai.system' : 'openai' ,
189
189
'gen_ai.request.model' : 'gpt-3.5-turbo' ,
@@ -201,8 +201,8 @@ describe('OpenAI integration', () => {
201
201
'openai.usage.completion_tokens' : 8 ,
202
202
'openai.usage.prompt_tokens' : 5 ,
203
203
} ,
204
- description : 'chat gpt-3.5-turbo' ,
205
- op : 'gen_ai.chat ' ,
204
+ description : 'responses gpt-3.5-turbo' ,
205
+ op : 'gen_ai.responses ' ,
206
206
origin : 'manual' ,
207
207
status : 'ok' ,
208
208
} ) ,
@@ -255,8 +255,8 @@ describe('OpenAI integration', () => {
255
255
// Fifth span - responses API streaming with PII
256
256
expect . objectContaining ( {
257
257
data : expect . objectContaining ( {
258
- 'gen_ai.operation.name' : 'chat ' ,
259
- 'sentry.op' : 'gen_ai.chat ' ,
258
+ 'gen_ai.operation.name' : 'responses ' ,
259
+ 'sentry.op' : 'gen_ai.responses ' ,
260
260
'sentry.origin' : 'manual' ,
261
261
'gen_ai.system' : 'openai' ,
262
262
'gen_ai.request.model' : 'gpt-4' ,
@@ -276,8 +276,8 @@ describe('OpenAI integration', () => {
276
276
'openai.usage.completion_tokens' : 10 ,
277
277
'openai.usage.prompt_tokens' : 6 ,
278
278
} ) ,
279
- description : 'chat gpt-4 stream-response' ,
280
- op : 'gen_ai.chat ' ,
279
+ description : 'responses gpt-4 stream-response' ,
280
+ op : 'gen_ai.responses ' ,
281
281
origin : 'manual' ,
282
282
status : 'ok' ,
283
283
} ) ,
0 commit comments