iommu/amd: Convert to use struct iommu_pages_list
authorJason Gunthorpe <jgg@nvidia.com>
Tue, 8 Apr 2025 16:53:58 +0000 (13:53 -0300)
committerJoerg Roedel <jroedel@suse.de>
Thu, 17 Apr 2025 14:22:42 +0000 (16:22 +0200)
Change the internal freelist to use struct iommu_pages_list.

AMD uses the freelist to batch free the entire table during domain
destruction, and to replace table levels with leafs during map.

Tested-by: Alejandro Jimenez <alejandro.j.jimenez@oracle.com>
Signed-off-by: Jason Gunthorpe <jgg@nvidia.com>
Link: https://lore.kernel.org/r/10-v4-c8663abbb606+3f7-iommu_pages_jgg@nvidia.com
Signed-off-by: Joerg Roedel <jroedel@suse.de>
drivers/iommu/amd/io_pgtable.c

index 42d9e67..97ddadb 100644 (file)
@@ -47,14 +47,7 @@ static u64 *first_pte_l7(u64 *pte, unsigned long *page_size,
        return fpte;
 }
 
-static void free_pt_page(u64 *pt, struct list_head *freelist)
-{
-       struct page *p = virt_to_page(pt);
-
-       list_add_tail(&p->lru, freelist);
-}
-
-static void free_pt_lvl(u64 *pt, struct list_head *freelist, int lvl)
+static void free_pt_lvl(u64 *pt, struct iommu_pages_list *freelist, int lvl)
 {
        u64 *p;
        int i;
@@ -77,20 +70,20 @@ static void free_pt_lvl(u64 *pt, struct list_head *freelist, int lvl)
                if (lvl > 2)
                        free_pt_lvl(p, freelist, lvl - 1);
                else
-                       free_pt_page(p, freelist);
+                       iommu_pages_list_add(freelist, p);
        }
 
-       free_pt_page(pt, freelist);
+       iommu_pages_list_add(freelist, pt);
 }
 
-static void free_sub_pt(u64 *root, int mode, struct list_head *freelist)
+static void free_sub_pt(u64 *root, int mode, struct iommu_pages_list *freelist)
 {
        switch (mode) {
        case PAGE_MODE_NONE:
        case PAGE_MODE_7_LEVEL:
                break;
        case PAGE_MODE_1_LEVEL:
-               free_pt_page(root, freelist);
+               iommu_pages_list_add(freelist, root);
                break;
        case PAGE_MODE_2_LEVEL:
        case PAGE_MODE_3_LEVEL:
@@ -299,7 +292,8 @@ static u64 *fetch_pte(struct amd_io_pgtable *pgtable,
        return pte;
 }
 
-static void free_clear_pte(u64 *pte, u64 pteval, struct list_head *freelist)
+static void free_clear_pte(u64 *pte, u64 pteval,
+                          struct iommu_pages_list *freelist)
 {
        u64 *pt;
        int mode;
@@ -328,7 +322,7 @@ static int iommu_v1_map_pages(struct io_pgtable_ops *ops, unsigned long iova,
                              int prot, gfp_t gfp, size_t *mapped)
 {
        struct amd_io_pgtable *pgtable = io_pgtable_ops_to_data(ops);
-       LIST_HEAD(freelist);
+       struct iommu_pages_list freelist = IOMMU_PAGES_LIST_INIT(freelist);
        bool updated = false;
        u64 __pte, *pte;
        int ret, i, count;
@@ -353,7 +347,7 @@ static int iommu_v1_map_pages(struct io_pgtable_ops *ops, unsigned long iova,
                for (i = 0; i < count; ++i)
                        free_clear_pte(&pte[i], pte[i], &freelist);
 
-               if (!list_empty(&freelist))
+               if (!iommu_pages_list_empty(&freelist))
                        updated = true;
 
                if (count > 1) {
@@ -524,7 +518,7 @@ static int iommu_v1_read_and_clear_dirty(struct io_pgtable_ops *ops,
 static void v1_free_pgtable(struct io_pgtable *iop)
 {
        struct amd_io_pgtable *pgtable = container_of(iop, struct amd_io_pgtable, pgtbl);
-       LIST_HEAD(freelist);
+       struct iommu_pages_list freelist = IOMMU_PAGES_LIST_INIT(freelist);
 
        if (pgtable->mode == PAGE_MODE_NONE)
                return;