Lines Matching refs:io_wq
54 struct io_wq *wq;
98 struct io_wq { struct
138 static bool create_io_worker(struct io_wq *wq, int index); argument
140 static bool io_acct_cancel_pending_work(struct io_wq *wq,
144 static void io_wq_cancel_tw_create(struct io_wq *wq);
157 static inline struct io_wq_acct *io_get_acct(struct io_wq *wq, bool bound) in io_get_acct()
162 static inline struct io_wq_acct *io_work_get_acct(struct io_wq *wq, in io_work_get_acct()
173 static void io_worker_ref_put(struct io_wq *wq) in io_worker_ref_put()
192 struct io_wq *wq = worker->wq; in io_worker_cancel_cb()
215 struct io_wq *wq = worker->wq; in io_worker_exit()
272 static bool io_wq_activate_free_worker(struct io_wq *wq, in io_wq_activate_free_worker()
308 static bool io_wq_create_worker(struct io_wq *wq, struct io_wq_acct *acct) in io_wq_create_worker()
339 struct io_wq *wq; in create_worker_cb()
368 struct io_wq *wq = worker->wq; in io_queue_worker_create()
413 struct io_wq *wq = worker->wq; in io_wq_dec_running()
433 static void __io_worker_busy(struct io_wq *wq, struct io_worker *worker) in __io_worker_busy()
446 static void __io_worker_idle(struct io_wq *wq, struct io_worker *worker) in __io_worker_idle()
460 static bool io_wait_on_hash(struct io_wq *wq, unsigned int hash) in io_wait_on_hash()
484 struct io_wq *wq = worker->wq; in io_get_next_work()
554 struct io_wq *wq = worker->wq; in io_worker_handle_work()
635 struct io_wq *wq = worker->wq; in io_wq_worker()
731 static void io_init_new_worker(struct io_wq *wq, struct io_worker *worker, in io_init_new_worker()
777 struct io_wq *wq; in create_worker_cont()
824 static bool create_io_worker(struct io_wq *wq, int index) in create_io_worker()
869 static bool io_wq_for_each_worker(struct io_wq *wq, in io_wq_for_each_worker()
897 static void io_run_cancel(struct io_wq_work *work, struct io_wq *wq) in io_run_cancel()
906 static void io_wq_insert_work(struct io_wq *wq, struct io_wq_work *work) in io_wq_insert_work()
932 void io_wq_enqueue(struct io_wq *wq, struct io_wq_work *work) in io_wq_enqueue()
1023 static inline void io_wq_remove_pending(struct io_wq *wq, in io_wq_remove_pending()
1042 static bool io_acct_cancel_pending_work(struct io_wq *wq, in io_acct_cancel_pending_work()
1066 static void io_wq_cancel_pending_work(struct io_wq *wq, in io_wq_cancel_pending_work()
1082 static void io_wq_cancel_running_work(struct io_wq *wq, in io_wq_cancel_running_work()
1090 enum io_wq_cancel io_wq_cancel_cb(struct io_wq *wq, work_cancel_fn *cancel, in io_wq_cancel_cb()
1132 struct io_wq *wq = container_of(wait, struct io_wq, wait); in io_wq_hash_wake()
1148 struct io_wq *io_wq_create(unsigned bounded, struct io_wq_data *data) in io_wq_create()
1151 struct io_wq *wq; in io_wq_create()
1158 wq = kzalloc(sizeof(struct io_wq), GFP_KERNEL); in io_wq_create()
1215 void io_wq_exit_start(struct io_wq *wq) in io_wq_exit_start()
1220 static void io_wq_cancel_tw_create(struct io_wq *wq) in io_wq_cancel_tw_create()
1238 static void io_wq_exit_workers(struct io_wq *wq) in io_wq_exit_workers()
1259 static void io_wq_destroy(struct io_wq *wq) in io_wq_destroy()
1273 void io_wq_put_and_exit(struct io_wq *wq) in io_wq_put_and_exit()
1297 static int __io_wq_cpu_online(struct io_wq *wq, unsigned int cpu, bool online) in __io_wq_cpu_online()
1312 struct io_wq *wq = hlist_entry_safe(node, struct io_wq, cpuhp_node); in io_wq_cpu_online()
1319 struct io_wq *wq = hlist_entry_safe(node, struct io_wq, cpuhp_node); in io_wq_cpu_offline()
1329 if (!tctx || !tctx->io_wq) in io_wq_cpu_affinity()
1336 cpuset_cpus_allowed(tctx->io_wq->task, allowed_mask); in io_wq_cpu_affinity()
1339 cpumask_copy(tctx->io_wq->cpu_mask, mask); in io_wq_cpu_affinity()
1343 cpumask_copy(tctx->io_wq->cpu_mask, allowed_mask); in io_wq_cpu_affinity()
1355 int io_wq_max_workers(struct io_wq *wq, int *new_count) in io_wq_max_workers()