xfs: don't run speculative preallocation gc when fs is frozen
[linux-2.6-microblaze.git] / fs / xfs / xfs_mount.h
1 // SPDX-License-Identifier: GPL-2.0
2 /*
3  * Copyright (c) 2000-2005 Silicon Graphics, Inc.
4  * All Rights Reserved.
5  */
6 #ifndef __XFS_MOUNT_H__
7 #define __XFS_MOUNT_H__
8
9 struct xlog;
10 struct xfs_inode;
11 struct xfs_mru_cache;
12 struct xfs_ail;
13 struct xfs_quotainfo;
14 struct xfs_da_geometry;
15 struct xfs_perag;
16
17 /* dynamic preallocation free space thresholds, 5% down to 1% */
18 enum {
19         XFS_LOWSP_1_PCNT = 0,
20         XFS_LOWSP_2_PCNT,
21         XFS_LOWSP_3_PCNT,
22         XFS_LOWSP_4_PCNT,
23         XFS_LOWSP_5_PCNT,
24         XFS_LOWSP_MAX,
25 };
26
27 /*
28  * Error Configuration
29  *
30  * Error classes define the subsystem the configuration belongs to.
31  * Error numbers define the errors that are configurable.
32  */
33 enum {
34         XFS_ERR_METADATA,
35         XFS_ERR_CLASS_MAX,
36 };
37 enum {
38         XFS_ERR_DEFAULT,
39         XFS_ERR_EIO,
40         XFS_ERR_ENOSPC,
41         XFS_ERR_ENODEV,
42         XFS_ERR_ERRNO_MAX,
43 };
44
45 #define XFS_ERR_RETRY_FOREVER   -1
46
47 /*
48  * Although retry_timeout is in jiffies which is normally an unsigned long,
49  * we limit the retry timeout to 86400 seconds, or one day.  So even a
50  * signed 32-bit long is sufficient for a HZ value up to 24855.  Making it
51  * signed lets us store the special "-1" value, meaning retry forever.
52  */
53 struct xfs_error_cfg {
54         struct xfs_kobj kobj;
55         int             max_retries;
56         long            retry_timeout;  /* in jiffies, -1 = infinite */
57 };
58
59 /*
60  * Per-cpu deferred inode inactivation GC lists.
61  */
62 struct xfs_inodegc {
63         struct llist_head       list;
64         struct work_struct      work;
65
66         /* approximate count of inodes in the list */
67         unsigned int            items;
68 };
69
70 /*
71  * The struct xfsmount layout is optimised to separate read-mostly variables
72  * from variables that are frequently modified. We put the read-mostly variables
73  * first, then place all the other variables at the end.
74  *
75  * Typically, read-mostly variables are those that are set at mount time and
76  * never changed again, or only change rarely as a result of things like sysfs
77  * knobs being tweaked.
78  */
79 typedef struct xfs_mount {
80         struct xfs_sb           m_sb;           /* copy of fs superblock */
81         struct super_block      *m_super;
82         struct xfs_ail          *m_ail;         /* fs active log item list */
83         struct xfs_buf          *m_sb_bp;       /* buffer for superblock */
84         char                    *m_rtname;      /* realtime device name */
85         char                    *m_logname;     /* external log device name */
86         struct xfs_da_geometry  *m_dir_geo;     /* directory block geometry */
87         struct xfs_da_geometry  *m_attr_geo;    /* attribute block geometry */
88         struct xlog             *m_log;         /* log specific stuff */
89         struct xfs_inode        *m_rbmip;       /* pointer to bitmap inode */
90         struct xfs_inode        *m_rsumip;      /* pointer to summary inode */
91         struct xfs_inode        *m_rootip;      /* pointer to root directory */
92         struct xfs_quotainfo    *m_quotainfo;   /* disk quota information */
93         xfs_buftarg_t           *m_ddev_targp;  /* saves taking the address */
94         xfs_buftarg_t           *m_logdev_targp;/* ptr to log device */
95         xfs_buftarg_t           *m_rtdev_targp; /* ptr to rt device */
96         struct list_head        m_mount_list;   /* global mount list */
97         void __percpu           *m_inodegc;     /* percpu inodegc structures */
98
99         /*
100          * Optional cache of rt summary level per bitmap block with the
101          * invariant that m_rsum_cache[bbno] <= the minimum i for which
102          * rsum[i][bbno] != 0. Reads and writes are serialized by the rsumip
103          * inode lock.
104          */
105         uint8_t                 *m_rsum_cache;
106         struct xfs_mru_cache    *m_filestream;  /* per-mount filestream data */
107         struct workqueue_struct *m_buf_workqueue;
108         struct workqueue_struct *m_unwritten_workqueue;
109         struct workqueue_struct *m_cil_workqueue;
110         struct workqueue_struct *m_reclaim_workqueue;
111         struct workqueue_struct *m_sync_workqueue;
112         struct workqueue_struct *m_blockgc_wq;
113         struct workqueue_struct *m_inodegc_wq;
114
115         int                     m_bsize;        /* fs logical block size */
116         uint8_t                 m_blkbit_log;   /* blocklog + NBBY */
117         uint8_t                 m_blkbb_log;    /* blocklog - BBSHIFT */
118         uint8_t                 m_agno_log;     /* log #ag's */
119         uint8_t                 m_sectbb_log;   /* sectlog - BBSHIFT */
120         uint                    m_blockmask;    /* sb_blocksize-1 */
121         uint                    m_blockwsize;   /* sb_blocksize in words */
122         uint                    m_blockwmask;   /* blockwsize-1 */
123         uint                    m_alloc_mxr[2]; /* max alloc btree records */
124         uint                    m_alloc_mnr[2]; /* min alloc btree records */
125         uint                    m_bmap_dmxr[2]; /* max bmap btree records */
126         uint                    m_bmap_dmnr[2]; /* min bmap btree records */
127         uint                    m_rmap_mxr[2];  /* max rmap btree records */
128         uint                    m_rmap_mnr[2];  /* min rmap btree records */
129         uint                    m_refc_mxr[2];  /* max refc btree records */
130         uint                    m_refc_mnr[2];  /* min refc btree records */
131         uint                    m_ag_maxlevels; /* XFS_AG_MAXLEVELS */
132         uint                    m_bm_maxlevels[2]; /* XFS_BM_MAXLEVELS */
133         uint                    m_rmap_maxlevels; /* max rmap btree levels */
134         uint                    m_refc_maxlevels; /* max refcount btree level */
135         xfs_extlen_t            m_ag_prealloc_blocks; /* reserved ag blocks */
136         uint                    m_alloc_set_aside; /* space we can't use */
137         uint                    m_ag_max_usable; /* max space per AG */
138         int                     m_dalign;       /* stripe unit */
139         int                     m_swidth;       /* stripe width */
140         xfs_agnumber_t          m_maxagi;       /* highest inode alloc group */
141         uint                    m_allocsize_log;/* min write size log bytes */
142         uint                    m_allocsize_blocks; /* min write size blocks */
143         int                     m_logbufs;      /* number of log buffers */
144         int                     m_logbsize;     /* size of each log buffer */
145         uint                    m_rsumlevels;   /* rt summary levels */
146         uint                    m_rsumsize;     /* size of rt summary, bytes */
147         int                     m_fixedfsid[2]; /* unchanged for life of FS */
148         uint                    m_qflags;       /* quota status flags */
149         uint64_t                m_flags;        /* global mount flags */
150         uint64_t                m_low_space[XFS_LOWSP_MAX];
151         uint64_t                m_low_rtexts[XFS_LOWSP_MAX];
152         struct xfs_ino_geometry m_ino_geo;      /* inode geometry */
153         struct xfs_trans_resv   m_resv;         /* precomputed res values */
154                                                 /* low free space thresholds */
155         unsigned long           m_opstate;      /* dynamic state flags */
156         bool                    m_always_cow;
157         bool                    m_fail_unmount;
158         bool                    m_finobt_nores; /* no per-AG finobt resv. */
159         bool                    m_update_sb;    /* sb needs update in mount */
160
161         /*
162          * Bitsets of per-fs metadata that have been checked and/or are sick.
163          * Callers must hold m_sb_lock to access these two fields.
164          */
165         uint8_t                 m_fs_checked;
166         uint8_t                 m_fs_sick;
167         /*
168          * Bitsets of rt metadata that have been checked and/or are sick.
169          * Callers must hold m_sb_lock to access this field.
170          */
171         uint8_t                 m_rt_checked;
172         uint8_t                 m_rt_sick;
173
174         /*
175          * End of read-mostly variables. Frequently written variables and locks
176          * should be placed below this comment from now on. The first variable
177          * here is marked as cacheline aligned so they it is separated from
178          * the read-mostly variables.
179          */
180
181         spinlock_t ____cacheline_aligned m_sb_lock; /* sb counter lock */
182         struct percpu_counter   m_icount;       /* allocated inodes counter */
183         struct percpu_counter   m_ifree;        /* free inodes counter */
184         struct percpu_counter   m_fdblocks;     /* free block counter */
185         /*
186          * Count of data device blocks reserved for delayed allocations,
187          * including indlen blocks.  Does not include allocated CoW staging
188          * extents or anything related to the rt device.
189          */
190         struct percpu_counter   m_delalloc_blks;
191         /*
192          * Global count of allocation btree blocks in use across all AGs. Only
193          * used when perag reservation is enabled. Helps prevent block
194          * reservation from attempting to reserve allocation btree blocks.
195          */
196         atomic64_t              m_allocbt_blks;
197
198         struct radix_tree_root  m_perag_tree;   /* per-ag accounting info */
199         spinlock_t              m_perag_lock;   /* lock for m_perag_tree */
200         uint64_t                m_resblks;      /* total reserved blocks */
201         uint64_t                m_resblks_avail;/* available reserved blocks */
202         uint64_t                m_resblks_save; /* reserved blks @ remount,ro */
203         struct delayed_work     m_reclaim_work; /* background inode reclaim */
204         struct xfs_kobj         m_kobj;
205         struct xfs_kobj         m_error_kobj;
206         struct xfs_kobj         m_error_meta_kobj;
207         struct xfs_error_cfg    m_error_cfg[XFS_ERR_CLASS_MAX][XFS_ERR_ERRNO_MAX];
208         struct xstats           m_stats;        /* per-fs stats */
209         xfs_agnumber_t          m_agfrotor;     /* last ag where space found */
210         xfs_agnumber_t          m_agirotor;     /* last ag dir inode alloced */
211         spinlock_t              m_agirotor_lock;/* .. and lock protecting it */
212
213         /*
214          * Workqueue item so that we can coalesce multiple inode flush attempts
215          * into a single flush.
216          */
217         struct work_struct      m_flush_inodes_work;
218
219         /*
220          * Generation of the filesysyem layout.  This is incremented by each
221          * growfs, and used by the pNFS server to ensure the client updates
222          * its view of the block device once it gets a layout that might
223          * reference the newly added blocks.  Does not need to be persistent
224          * as long as we only allow file system size increments, but if we
225          * ever support shrinks it would have to be persisted in addition
226          * to various other kinds of pain inflicted on the pNFS server.
227          */
228         uint32_t                m_generation;
229         struct mutex            m_growlock;     /* growfs mutex */
230
231 #ifdef DEBUG
232         /*
233          * Frequency with which errors are injected.  Replaces xfs_etest; the
234          * value stored in here is the inverse of the frequency with which the
235          * error triggers.  1 = always, 2 = half the time, etc.
236          */
237         unsigned int            *m_errortag;
238         struct xfs_kobj         m_errortag_kobj;
239 #endif
240 } xfs_mount_t;
241
242 #define M_IGEO(mp)              (&(mp)->m_ino_geo)
243
244 /*
245  * Flags for m_flags.
246  */
247 #define XFS_MOUNT_WSYNC         (1ULL << 0)     /* for nfs - all metadata ops
248                                                    must be synchronous except
249                                                    for space allocations */
250 #define XFS_MOUNT_UNMOUNTING    (1ULL << 1)     /* filesystem is unmounting */
251 #define XFS_MOUNT_WAS_CLEAN     (1ULL << 3)
252 #define XFS_MOUNT_FS_SHUTDOWN   (1ULL << 4)     /* atomic stop of all filesystem
253                                                    operations, typically for
254                                                    disk errors in metadata */
255 #define XFS_MOUNT_DISCARD       (1ULL << 5)     /* discard unused blocks */
256 #define XFS_MOUNT_NOALIGN       (1ULL << 7)     /* turn off stripe alignment
257                                                    allocations */
258 #define XFS_MOUNT_ATTR2         (1ULL << 8)     /* allow use of attr2 format */
259 #define XFS_MOUNT_GRPID         (1ULL << 9)     /* group-ID assigned from directory */
260 #define XFS_MOUNT_NORECOVERY    (1ULL << 10)    /* no recovery - dirty fs */
261 #define XFS_MOUNT_ALLOCSIZE     (1ULL << 12)    /* specified allocation size */
262 #define XFS_MOUNT_SMALL_INUMS   (1ULL << 14)    /* user wants 32bit inodes */
263 #define XFS_MOUNT_32BITINODES   (1ULL << 15)    /* inode32 allocator active */
264 #define XFS_MOUNT_NOUUID        (1ULL << 16)    /* ignore uuid during mount */
265 #define XFS_MOUNT_IKEEP         (1ULL << 18)    /* keep empty inode clusters*/
266 #define XFS_MOUNT_SWALLOC       (1ULL << 19)    /* turn on stripe width
267                                                  * allocation */
268 #define XFS_MOUNT_RDONLY        (1ULL << 20)    /* read-only fs */
269 #define XFS_MOUNT_DIRSYNC       (1ULL << 21)    /* synchronous directory ops */
270 #define XFS_MOUNT_LARGEIO       (1ULL << 22)    /* report large preferred
271                                                  * I/O size in stat() */
272 #define XFS_MOUNT_FILESTREAMS   (1ULL << 24)    /* enable the filestreams
273                                                    allocator */
274 #define XFS_MOUNT_NOATTR2       (1ULL << 25)    /* disable use of attr2 format */
275 #define XFS_MOUNT_DAX_ALWAYS    (1ULL << 26)
276 #define XFS_MOUNT_DAX_NEVER     (1ULL << 27)
277
278 /*
279  * If set, inactivation worker threads will be scheduled to process queued
280  * inodegc work.  If not, queued inodes remain in memory waiting to be
281  * processed.
282  */
283 #define XFS_OPSTATE_INODEGC_ENABLED     0
284 /*
285  * If set, background speculative prealloc gc worker threads will be scheduled
286  * to process queued blockgc work.  If not, inodes retain their preallocations
287  * until explicitly deleted.
288  */
289 #define XFS_OPSTATE_BLOCKGC_ENABLED     1
290
291 #define __XFS_IS_OPSTATE(name, NAME) \
292 static inline bool xfs_is_ ## name (struct xfs_mount *mp) \
293 { \
294         return test_bit(XFS_OPSTATE_ ## NAME, &mp->m_opstate); \
295 } \
296 static inline bool xfs_clear_ ## name (struct xfs_mount *mp) \
297 { \
298         return test_and_clear_bit(XFS_OPSTATE_ ## NAME, &mp->m_opstate); \
299 } \
300 static inline bool xfs_set_ ## name (struct xfs_mount *mp) \
301 { \
302         return test_and_set_bit(XFS_OPSTATE_ ## NAME, &mp->m_opstate); \
303 }
304
305 __XFS_IS_OPSTATE(inodegc_enabled, INODEGC_ENABLED)
306 __XFS_IS_OPSTATE(blockgc_enabled, BLOCKGC_ENABLED)
307
308 #define XFS_OPSTATE_STRINGS \
309         { (1UL << XFS_OPSTATE_INODEGC_ENABLED),         "inodegc" }, \
310         { (1UL << XFS_OPSTATE_BLOCKGC_ENABLED),         "blockgc" }
311
312 /*
313  * Max and min values for mount-option defined I/O
314  * preallocation sizes.
315  */
316 #define XFS_MAX_IO_LOG          30      /* 1G */
317 #define XFS_MIN_IO_LOG          PAGE_SHIFT
318
319 #define XFS_LAST_UNMOUNT_WAS_CLEAN(mp)  \
320                                 ((mp)->m_flags & XFS_MOUNT_WAS_CLEAN)
321 #define XFS_FORCED_SHUTDOWN(mp) ((mp)->m_flags & XFS_MOUNT_FS_SHUTDOWN)
322 void xfs_do_force_shutdown(struct xfs_mount *mp, int flags, char *fname,
323                 int lnnum);
324 #define xfs_force_shutdown(m,f) \
325         xfs_do_force_shutdown(m, f, __FILE__, __LINE__)
326
327 #define SHUTDOWN_META_IO_ERROR  0x0001  /* write attempt to metadata failed */
328 #define SHUTDOWN_LOG_IO_ERROR   0x0002  /* write attempt to the log failed */
329 #define SHUTDOWN_FORCE_UMOUNT   0x0004  /* shutdown from a forced unmount */
330 #define SHUTDOWN_CORRUPT_INCORE 0x0008  /* corrupt in-memory data structures */
331
332 /*
333  * Flags for xfs_mountfs
334  */
335 #define XFS_MFSI_QUIET          0x40    /* Be silent if mount errors found */
336
337 static inline xfs_agnumber_t
338 xfs_daddr_to_agno(struct xfs_mount *mp, xfs_daddr_t d)
339 {
340         xfs_rfsblock_t ld = XFS_BB_TO_FSBT(mp, d);
341         do_div(ld, mp->m_sb.sb_agblocks);
342         return (xfs_agnumber_t) ld;
343 }
344
345 static inline xfs_agblock_t
346 xfs_daddr_to_agbno(struct xfs_mount *mp, xfs_daddr_t d)
347 {
348         xfs_rfsblock_t ld = XFS_BB_TO_FSBT(mp, d);
349         return (xfs_agblock_t) do_div(ld, mp->m_sb.sb_agblocks);
350 }
351
352 int xfs_buf_hash_init(struct xfs_perag *pag);
353 void xfs_buf_hash_destroy(struct xfs_perag *pag);
354
355 extern void     xfs_uuid_table_free(void);
356 extern uint64_t xfs_default_resblks(xfs_mount_t *mp);
357 extern int      xfs_mountfs(xfs_mount_t *mp);
358 extern void     xfs_unmountfs(xfs_mount_t *);
359
360 /*
361  * Deltas for the block count can vary from 1 to very large, but lock contention
362  * only occurs on frequent small block count updates such as in the delayed
363  * allocation path for buffered writes (page a time updates). Hence we set
364  * a large batch count (1024) to minimise global counter updates except when
365  * we get near to ENOSPC and we have to be very accurate with our updates.
366  */
367 #define XFS_FDBLOCKS_BATCH      1024
368
369 extern int      xfs_mod_fdblocks(struct xfs_mount *mp, int64_t delta,
370                                  bool reserved);
371 extern int      xfs_mod_frextents(struct xfs_mount *mp, int64_t delta);
372
373 extern int      xfs_readsb(xfs_mount_t *, int);
374 extern void     xfs_freesb(xfs_mount_t *);
375 extern bool     xfs_fs_writable(struct xfs_mount *mp, int level);
376 extern int      xfs_sb_validate_fsb_count(struct xfs_sb *, uint64_t);
377
378 extern int      xfs_dev_is_read_only(struct xfs_mount *, char *);
379
380 extern void     xfs_set_low_space_thresholds(struct xfs_mount *);
381
382 int     xfs_zero_extent(struct xfs_inode *ip, xfs_fsblock_t start_fsb,
383                         xfs_off_t count_fsb);
384
385 struct xfs_error_cfg * xfs_error_get_cfg(struct xfs_mount *mp,
386                 int error_class, int error);
387 void xfs_force_summary_recalc(struct xfs_mount *mp);
388 void xfs_mod_delalloc(struct xfs_mount *mp, int64_t delta);
389
390 #endif  /* __XFS_MOUNT_H__ */