File tree Expand file tree Collapse file tree 5 files changed +12
-12
lines changed Expand file tree Collapse file tree 5 files changed +12
-12
lines changed Original file line number Diff line number Diff line change 25
25
group : aws-g6e-4xlarge
26
26
container :
27
27
image : diffusers/diffusers-pytorch-cuda
28
- options : --shm-size "16gb" --ipc host --gpus 0
28
+ options : --shm-size "16gb" --ipc host --gpus all
29
29
steps :
30
30
- name : Checkout diffusers
31
31
uses : actions/checkout@v3
Original file line number Diff line number Diff line change 61
61
group : aws-g4dn-2xlarge
62
62
container :
63
63
image : diffusers/diffusers-pytorch-cuda
64
- options : --shm-size "16gb" --ipc host --gpus 0
64
+ options : --shm-size "16gb" --ipc host --gpus all
65
65
steps :
66
66
- name : Checkout diffusers
67
67
uses : actions/checkout@v3
@@ -107,7 +107,7 @@ jobs:
107
107
group : aws-g4dn-2xlarge
108
108
container :
109
109
image : diffusers/diffusers-pytorch-cuda
110
- options : --shm-size "16gb" --ipc host --gpus 0
110
+ options : --shm-size "16gb" --ipc host --gpus all
111
111
defaults :
112
112
run :
113
113
shell : bash
@@ -222,7 +222,7 @@ jobs:
222
222
group : aws-g6e-xlarge-plus
223
223
container :
224
224
image : diffusers/diffusers-pytorch-cuda
225
- options : --shm-size "16gb" --ipc host --gpus 0
225
+ options : --shm-size "16gb" --ipc host --gpus all
226
226
steps :
227
227
- name : Checkout diffusers
228
228
uses : actions/checkout@v3
@@ -270,7 +270,7 @@ jobs:
270
270
group : aws-g4dn-2xlarge
271
271
container :
272
272
image : diffusers/diffusers-pytorch-minimum-cuda
273
- options : --shm-size "16gb" --ipc host --gpus 0
273
+ options : --shm-size "16gb" --ipc host --gpus all
274
274
defaults :
275
275
run :
276
276
shell : bash
Original file line number Diff line number Diff line change @@ -118,7 +118,7 @@ jobs:
118
118
group : aws-g4dn-2xlarge
119
119
container :
120
120
image : diffusers/diffusers-pytorch-cuda
121
- options : --shm-size "16gb" --ipc host --gpus 0
121
+ options : --shm-size "16gb" --ipc host --gpus all
122
122
steps :
123
123
- name : Checkout diffusers
124
124
uses : actions/checkout@v3
@@ -183,7 +183,7 @@ jobs:
183
183
group : aws-g4dn-2xlarge
184
184
container :
185
185
image : diffusers/diffusers-pytorch-cuda
186
- options : --shm-size "16gb" --ipc host --gpus 0
186
+ options : --shm-size "16gb" --ipc host --gpus all
187
187
defaults :
188
188
run :
189
189
shell : bash
Original file line number Diff line number Diff line change 64
64
group : aws-g4dn-2xlarge
65
65
container :
66
66
image : diffusers/diffusers-pytorch-cuda
67
- options : --shm-size "16gb" --ipc host --gpus 0
67
+ options : --shm-size "16gb" --ipc host --gpus all
68
68
steps :
69
69
- name : Checkout diffusers
70
70
uses : actions/checkout@v3
@@ -109,7 +109,7 @@ jobs:
109
109
group : aws-g4dn-2xlarge
110
110
container :
111
111
image : diffusers/diffusers-pytorch-cuda
112
- options : --shm-size "16gb" --ipc host --gpus 0
112
+ options : --shm-size "16gb" --ipc host --gpus all
113
113
defaults :
114
114
run :
115
115
shell : bash
Original file line number Diff line number Diff line change 62
62
group : aws-g4dn-2xlarge
63
63
container :
64
64
image : diffusers/diffusers-pytorch-cuda
65
- options : --shm-size "16gb" --ipc host --gpus 0
65
+ options : --shm-size "16gb" --ipc host --gpus all
66
66
steps :
67
67
- name : Checkout diffusers
68
68
uses : actions/checkout@v3
@@ -107,7 +107,7 @@ jobs:
107
107
group : aws-g4dn-2xlarge
108
108
container :
109
109
image : diffusers/diffusers-pytorch-cuda
110
- options : --shm-size "16gb" --ipc host --gpus 0
110
+ options : --shm-size "16gb" --ipc host --gpus all
111
111
defaults :
112
112
run :
113
113
shell : bash
@@ -163,7 +163,7 @@ jobs:
163
163
group : aws-g4dn-2xlarge
164
164
container :
165
165
image : diffusers/diffusers-pytorch-minimum-cuda
166
- options : --shm-size "16gb" --ipc host --gpus 0
166
+ options : --shm-size "16gb" --ipc host --gpus all
167
167
defaults :
168
168
run :
169
169
shell : bash
You can’t perform that action at this time.
0 commit comments