Searched refs:io_wq (Results 1 – 15 of 15) sorted by relevance
/linux-6.12.1/io_uring/ |
D | io-wq.c | 54 struct io_wq *wq; 98 struct io_wq { struct 138 static bool create_io_worker(struct io_wq *wq, int index); argument 140 static bool io_acct_cancel_pending_work(struct io_wq *wq, 144 static void io_wq_cancel_tw_create(struct io_wq *wq); 157 static inline struct io_wq_acct *io_get_acct(struct io_wq *wq, bool bound) in io_get_acct() 162 static inline struct io_wq_acct *io_work_get_acct(struct io_wq *wq, in io_work_get_acct() 173 static void io_worker_ref_put(struct io_wq *wq) in io_worker_ref_put() 192 struct io_wq *wq = worker->wq; in io_worker_cancel_cb() 215 struct io_wq *wq = worker->wq; in io_worker_exit() [all …]
|
D | io-wq.h | 7 struct io_wq; 46 struct io_wq *io_wq_create(unsigned bounded, struct io_wq_data *data); 47 void io_wq_exit_start(struct io_wq *wq); 48 void io_wq_put_and_exit(struct io_wq *wq); 50 void io_wq_enqueue(struct io_wq *wq, struct io_wq_work *work); 54 int io_wq_max_workers(struct io_wq *wq, int *new_count); 64 enum io_wq_cancel io_wq_cancel_cb(struct io_wq *wq, work_cancel_fn *cancel,
|
D | tctx.c | 15 static struct io_wq *io_init_wq_offload(struct io_ring_ctx *ctx, in io_init_wq_offload() 52 WARN_ON_ONCE(tctx->io_wq); in __io_uring_free() 76 tctx->io_wq = io_init_wq_offload(ctx, task); in io_uring_alloc_task_context() 77 if (IS_ERR(tctx->io_wq)) { in io_uring_alloc_task_context() 78 ret = PTR_ERR(tctx->io_wq); in io_uring_alloc_task_context() 110 ret = io_wq_max_workers(tctx->io_wq, limits); in __io_uring_add_tctx_node() 180 struct io_wq *wq = tctx->io_wq; in io_uring_clean_tctx() 194 tctx->io_wq = NULL; in io_uring_clean_tctx()
|
D | register.c | 294 if (tctx && tctx->io_wq) { in io_register_iowq_max_workers() 295 ret = io_wq_max_workers(tctx->io_wq, new_count); in io_register_iowq_max_workers() 319 if (WARN_ON_ONCE(!tctx->io_wq)) in io_register_iowq_max_workers() 325 (void)io_wq_max_workers(tctx->io_wq, new_count); in io_register_iowq_max_workers()
|
D | cancel.c | 83 if (!tctx || !tctx->io_wq) in io_async_cancel_one() 87 cancel_ret = io_wq_cancel_cb(tctx->io_wq, io_cancel_cb, cd, all); in io_async_cancel_one()
|
D | io_uring.c | 518 BUG_ON(!tctx->io_wq); in io_queue_iowq() 534 io_wq_enqueue(tctx->io_wq, &req->work); in io_queue_iowq() 2922 if (tsk && tsk->io_uring && tsk->io_uring->io_wq) in io_ring_exit_work() 2923 io_wq_cancel_cb(tsk->io_uring->io_wq, in io_ring_exit_work() 3069 if (!tctx || !tctx->io_wq) in io_uring_try_cancel_iowq() 3071 cret = io_wq_cancel_cb(tctx->io_wq, io_cancel_ctx_cb, ctx, true); in io_uring_try_cancel_iowq() 3100 } else if (tctx && tctx->io_wq) { in io_uring_try_cancel_requests() 3105 cret = io_wq_cancel_cb(tctx->io_wq, io_cancel_task_cb, in io_uring_try_cancel_requests() 3162 if (tctx->io_wq) in io_uring_cancel_generic() 3163 io_wq_exit_start(tctx->io_wq); in io_uring_cancel_generic()
|
/linux-6.12.1/drivers/scsi/lpfc/ |
D | lpfc_debugfs.h | 426 wq = phba->sli4_hba.hdwq[wqidx].io_wq; in lpfc_debug_dump_wq() 470 wq = phba->sli4_hba.hdwq[wqidx].io_wq; in lpfc_debug_dump_cq() 575 if (phba->sli4_hba.hdwq[wq_idx].io_wq->queue_id == qid) in lpfc_debug_dump_wq_by_id() 579 lpfc_debug_dump_q(phba->sli4_hba.hdwq[wq_idx].io_wq); in lpfc_debug_dump_wq_by_id()
|
D | lpfc_nvme.c | 2248 if (!vport->localport || !qp || !qp->io_wq) in lpfc_nvme_lport_unreg_wait() 2251 pring = qp->io_wq->pring; in lpfc_nvme_lport_unreg_wait() 2767 if (!phba->sli4_hba.hdwq[i].io_wq) in lpfc_nvme_wait_for_io_drain() 2769 pring = phba->sli4_hba.hdwq[i].io_wq->pring; in lpfc_nvme_wait_for_io_drain()
|
D | lpfc_sli4.h | 701 struct lpfc_queue *io_wq; /* Fast-path FCP & NVME work queue */ member
|
D | lpfc_nvmet.c | 1103 wq = ctxp->hdwq->io_wq; in lpfc_nvmet_xmt_fcp_op() 1178 wq = ctxp->hdwq->io_wq; in lpfc_nvmet_xmt_fcp_abort() 2124 wq = phba->sli4_hba.hdwq[qidx].io_wq; in lpfc_nvmet_destroy_targetport()
|
D | lpfc_sli.c | 4658 pring = phba->sli4_hba.hdwq[i].io_wq->pring; in lpfc_sli_abort_fcp_rings() 4694 !phba->sli4_hba.hdwq[i].io_wq) { in lpfc_sli_flush_io_rings() 4704 pring = phba->sli4_hba.hdwq[i].io_wq->pring; in lpfc_sli_flush_io_rings() 10674 wq = phba->sli4_hba.hdwq[piocb->hba_wqidx].io_wq; in __lpfc_sli_issue_iocb_s4() 11263 return phba->sli4_hba.hdwq[piocb->hba_wqidx].io_wq->pring; in lpfc_sli4_calc_ring() 11776 pring = phba->sli4_hba.hdwq[i].io_wq->pring; in lpfc_sli4_queue_init() 12897 phba->sli4_hba.hdwq[iocbq->hba_wqidx].io_wq->pring; in lpfc_sli_abort_taskmgmt() 21159 wq = phba->sli4_hba.hdwq[0].io_wq; in lpfc_drain_txq() 21402 wq = qp->io_wq; in lpfc_sli4_issue_wqe() 21424 wq = qp->io_wq; in lpfc_sli4_issue_wqe() [all …]
|
D | lpfc_scsi.c | 5559 if (!phba->sli4_hba.hdwq[iocb->hba_wqidx].io_wq || in lpfc_abort_handler() 5560 !phba->sli4_hba.hdwq[iocb->hba_wqidx].io_wq->pring) { in lpfc_abort_handler() 5571 pring_s4 = phba->sli4_hba.hdwq[iocb->hba_wqidx].io_wq->pring; in lpfc_abort_handler()
|
D | lpfc_debugfs.c | 532 txcmplq_cnt = qp->io_wq->pring->txcmplq_cnt; in lpfc_debugfs_multixripools_data() 3890 qp = phba->sli4_hba.hdwq[qidx].io_wq; in lpfc_idiag_wqs_for_cq() 4481 qp = phba->sli4_hba.hdwq[qidx].io_wq; in lpfc_idiag_queacc_write()
|
D | lpfc_init.c | 10426 phba->sli4_hba.hdwq[idx].io_wq = qdesc; in lpfc_alloc_io_wq_cq() 10858 lpfc_sli4_queue_free(hdwq[idx].io_wq); in lpfc_sli4_release_hdwq() 10861 hdwq[idx].io_wq = NULL; in lpfc_sli4_release_hdwq() 11198 qp[qidx].io_wq, in lpfc_sli4_queue_setup() 11505 lpfc_wq_destroy(phba, qp->io_wq); in lpfc_sli4_queue_unset()
|
/linux-6.12.1/include/linux/ |
D | io_uring_types.h | 88 struct io_wq *io_wq; member
|