@@ -329,7 +329,7 @@ nouveau_uvma_region_create(struct nouveau_uvmm *uvmm,
329
329
struct nouveau_uvma_region * reg ;
330
330
int ret ;
331
331
332
- if (!drm_gpuvm_interval_empty (& uvmm -> umgr , addr , range ))
332
+ if (!drm_gpuvm_interval_empty (& uvmm -> base , addr , range ))
333
333
return - ENOSPC ;
334
334
335
335
ret = nouveau_uvma_region_alloc (& reg );
@@ -384,7 +384,7 @@ nouveau_uvma_region_empty(struct nouveau_uvma_region *reg)
384
384
{
385
385
struct nouveau_uvmm * uvmm = reg -> uvmm ;
386
386
387
- return drm_gpuvm_interval_empty (& uvmm -> umgr ,
387
+ return drm_gpuvm_interval_empty (& uvmm -> base ,
388
388
reg -> va .addr ,
389
389
reg -> va .range );
390
390
}
@@ -589,7 +589,7 @@ op_map_prepare(struct nouveau_uvmm *uvmm,
589
589
uvma -> region = args -> region ;
590
590
uvma -> kind = args -> kind ;
591
591
592
- drm_gpuva_map (& uvmm -> umgr , & uvma -> va , op );
592
+ drm_gpuva_map (& uvmm -> base , & uvma -> va , op );
593
593
594
594
/* Keep a reference until this uvma is destroyed. */
595
595
nouveau_uvma_gem_get (uvma );
@@ -1194,7 +1194,7 @@ nouveau_uvmm_bind_job_submit(struct nouveau_job *job)
1194
1194
goto unwind_continue ;
1195
1195
}
1196
1196
1197
- op -> ops = drm_gpuvm_sm_unmap_ops_create (& uvmm -> umgr ,
1197
+ op -> ops = drm_gpuvm_sm_unmap_ops_create (& uvmm -> base ,
1198
1198
op -> va .addr ,
1199
1199
op -> va .range );
1200
1200
if (IS_ERR (op -> ops )) {
@@ -1205,7 +1205,7 @@ nouveau_uvmm_bind_job_submit(struct nouveau_job *job)
1205
1205
ret = nouveau_uvmm_sm_unmap_prepare (uvmm , & op -> new ,
1206
1206
op -> ops );
1207
1207
if (ret ) {
1208
- drm_gpuva_ops_free (& uvmm -> umgr , op -> ops );
1208
+ drm_gpuva_ops_free (& uvmm -> base , op -> ops );
1209
1209
op -> ops = NULL ;
1210
1210
op -> reg = NULL ;
1211
1211
goto unwind_continue ;
@@ -1240,7 +1240,7 @@ nouveau_uvmm_bind_job_submit(struct nouveau_job *job)
1240
1240
}
1241
1241
}
1242
1242
1243
- op -> ops = drm_gpuvm_sm_map_ops_create (& uvmm -> umgr ,
1243
+ op -> ops = drm_gpuvm_sm_map_ops_create (& uvmm -> base ,
1244
1244
op -> va .addr ,
1245
1245
op -> va .range ,
1246
1246
op -> gem .obj ,
@@ -1256,15 +1256,15 @@ nouveau_uvmm_bind_job_submit(struct nouveau_job *job)
1256
1256
op -> va .range ,
1257
1257
op -> flags & 0xff );
1258
1258
if (ret ) {
1259
- drm_gpuva_ops_free (& uvmm -> umgr , op -> ops );
1259
+ drm_gpuva_ops_free (& uvmm -> base , op -> ops );
1260
1260
op -> ops = NULL ;
1261
1261
goto unwind_continue ;
1262
1262
}
1263
1263
1264
1264
break ;
1265
1265
}
1266
1266
case OP_UNMAP :
1267
- op -> ops = drm_gpuvm_sm_unmap_ops_create (& uvmm -> umgr ,
1267
+ op -> ops = drm_gpuvm_sm_unmap_ops_create (& uvmm -> base ,
1268
1268
op -> va .addr ,
1269
1269
op -> va .range );
1270
1270
if (IS_ERR (op -> ops )) {
@@ -1275,7 +1275,7 @@ nouveau_uvmm_bind_job_submit(struct nouveau_job *job)
1275
1275
ret = nouveau_uvmm_sm_unmap_prepare (uvmm , & op -> new ,
1276
1276
op -> ops );
1277
1277
if (ret ) {
1278
- drm_gpuva_ops_free (& uvmm -> umgr , op -> ops );
1278
+ drm_gpuva_ops_free (& uvmm -> base , op -> ops );
1279
1279
op -> ops = NULL ;
1280
1280
goto unwind_continue ;
1281
1281
}
@@ -1404,7 +1404,7 @@ nouveau_uvmm_bind_job_submit(struct nouveau_job *job)
1404
1404
break ;
1405
1405
}
1406
1406
1407
- drm_gpuva_ops_free (& uvmm -> umgr , op -> ops );
1407
+ drm_gpuva_ops_free (& uvmm -> base , op -> ops );
1408
1408
op -> ops = NULL ;
1409
1409
op -> reg = NULL ;
1410
1410
}
@@ -1509,7 +1509,7 @@ nouveau_uvmm_bind_job_free_work_fn(struct work_struct *work)
1509
1509
}
1510
1510
1511
1511
if (!IS_ERR_OR_NULL (op -> ops ))
1512
- drm_gpuva_ops_free (& uvmm -> umgr , op -> ops );
1512
+ drm_gpuva_ops_free (& uvmm -> base , op -> ops );
1513
1513
1514
1514
if (obj )
1515
1515
drm_gem_object_put (obj );
@@ -1836,7 +1836,7 @@ nouveau_uvmm_init(struct nouveau_uvmm *uvmm, struct nouveau_cli *cli,
1836
1836
uvmm -> kernel_managed_addr = kernel_managed_addr ;
1837
1837
uvmm -> kernel_managed_size = kernel_managed_size ;
1838
1838
1839
- drm_gpuvm_init (& uvmm -> umgr , cli -> name ,
1839
+ drm_gpuvm_init (& uvmm -> base , cli -> name ,
1840
1840
NOUVEAU_VA_SPACE_START ,
1841
1841
NOUVEAU_VA_SPACE_END ,
1842
1842
kernel_managed_addr , kernel_managed_size ,
@@ -1855,7 +1855,7 @@ nouveau_uvmm_init(struct nouveau_uvmm *uvmm, struct nouveau_cli *cli,
1855
1855
return 0 ;
1856
1856
1857
1857
out_free_gpuva_mgr :
1858
- drm_gpuvm_destroy (& uvmm -> umgr );
1858
+ drm_gpuvm_destroy (& uvmm -> base );
1859
1859
out_unlock :
1860
1860
mutex_unlock (& cli -> mutex );
1861
1861
return ret ;
@@ -1877,11 +1877,11 @@ nouveau_uvmm_fini(struct nouveau_uvmm *uvmm)
1877
1877
wait_event (entity -> job .wq , list_empty (& entity -> job .list .head ));
1878
1878
1879
1879
nouveau_uvmm_lock (uvmm );
1880
- drm_gpuvm_for_each_va_safe (va , next , & uvmm -> umgr ) {
1880
+ drm_gpuvm_for_each_va_safe (va , next , & uvmm -> base ) {
1881
1881
struct nouveau_uvma * uvma = uvma_from_va (va );
1882
1882
struct drm_gem_object * obj = va -> gem .obj ;
1883
1883
1884
- if (unlikely (va == & uvmm -> umgr .kernel_alloc_node ))
1884
+ if (unlikely (va == & uvmm -> base .kernel_alloc_node ))
1885
1885
continue ;
1886
1886
1887
1887
drm_gpuva_remove (va );
@@ -1910,7 +1910,7 @@ nouveau_uvmm_fini(struct nouveau_uvmm *uvmm)
1910
1910
1911
1911
mutex_lock (& cli -> mutex );
1912
1912
nouveau_vmm_fini (& uvmm -> vmm );
1913
- drm_gpuvm_destroy (& uvmm -> umgr );
1913
+ drm_gpuvm_destroy (& uvmm -> base );
1914
1914
mutex_unlock (& cli -> mutex );
1915
1915
1916
1916
dma_resv_fini (& uvmm -> resv );
0 commit comments