Lines Matching refs:txqs

94 	    txq_id != trans_pcie->txqs.cmd.q_id &&  in iwl_pcie_txq_inc_wr_ptr()
129 struct iwl_txq *txq = trans_pcie->txqs.txq[i]; in iwl_pcie_txq_check_wrptrs()
131 if (!test_bit(i, trans_pcie->txqs.queue_used)) in iwl_pcie_txq_check_wrptrs()
169 tfd = (u8 *)txq->tfds + trans_pcie->txqs.tfd.size * txq->write_ptr; in iwl_pcie_txq_build_tfd()
172 memset(tfd, 0, trans_pcie->txqs.tfd.size); in iwl_pcie_txq_build_tfd()
177 if (num_tbs >= trans_pcie->txqs.tfd.max_tbs) { in iwl_pcie_txq_build_tfd()
179 trans_pcie->txqs.tfd.max_tbs); in iwl_pcie_txq_build_tfd()
233 page_ptr = (void *)((u8 *)skb->cb + trans_pcie->txqs.page_offs); in iwl_pcie_free_tso_pages()
300 if (num_tbs > trans_pcie->txqs.tfd.max_tbs) { in iwl_txq_gen1_tfd_unmap()
384 struct iwl_txq *txq = trans_pcie->txqs.txq[txq_id]; in iwl_pcie_txq_unmap()
397 if (txq_id != trans_pcie->txqs.cmd.q_id) { in iwl_pcie_txq_unmap()
411 txq_id == trans_pcie->txqs.cmd.q_id) in iwl_pcie_txq_unmap()
439 struct iwl_txq *txq = trans_pcie->txqs.txq[txq_id]; in iwl_pcie_txq_free()
449 if (txq_id == trans_pcie->txqs.cmd.q_id) in iwl_pcie_txq_free()
458 trans_pcie->txqs.tfd.size * in iwl_pcie_txq_free()
488 memset(trans_pcie->txqs.queue_stopped, 0, in iwl_pcie_tx_start()
489 sizeof(trans_pcie->txqs.queue_stopped)); in iwl_pcie_tx_start()
490 memset(trans_pcie->txqs.queue_used, 0, in iwl_pcie_tx_start()
491 sizeof(trans_pcie->txqs.queue_used)); in iwl_pcie_tx_start()
505 trans_pcie->txqs.scd_bc_tbls.dma >> 10); in iwl_pcie_tx_start()
513 iwl_trans_ac_txq_enable(trans, trans_pcie->txqs.cmd.q_id, in iwl_pcie_tx_start()
514 trans_pcie->txqs.cmd.fifo, in iwl_pcie_tx_start()
515 trans_pcie->txqs.cmd.wdg_timeout); in iwl_pcie_tx_start()
551 struct iwl_txq *txq = trans_pcie->txqs.txq[txq_id]; in iwl_trans_pcie_tx_reset()
626 memset(trans_pcie->txqs.queue_stopped, 0, in iwl_pcie_tx_stop()
627 sizeof(trans_pcie->txqs.queue_stopped)); in iwl_pcie_tx_stop()
628 memset(trans_pcie->txqs.queue_used, 0, in iwl_pcie_tx_stop()
629 sizeof(trans_pcie->txqs.queue_used)); in iwl_pcie_tx_stop()
653 memset(trans_pcie->txqs.queue_used, 0, in iwl_pcie_tx_free()
654 sizeof(trans_pcie->txqs.queue_used)); in iwl_pcie_tx_free()
662 trans_pcie->txqs.txq[txq_id] = NULL; in iwl_pcie_tx_free()
671 iwl_pcie_free_dma_ptr(trans, &trans_pcie->txqs.scd_bc_tbls); in iwl_pcie_tx_free()
738 tfd_sz = trans_pcie->txqs.tfd.size * num_entries; in iwl_pcie_txq_alloc()
825 ret = iwl_pcie_alloc_dma_ptr(trans, &trans_pcie->txqs.scd_bc_tbls, in iwl_pcie_tx_alloc()
851 bool cmd_queue = (txq_id == trans_pcie->txqs.cmd.q_id); in iwl_pcie_tx_alloc()
859 trans_pcie->txqs.txq[txq_id] = &trans_pcie->txq_memory[txq_id]; in iwl_pcie_tx_alloc()
860 ret = iwl_pcie_txq_alloc(trans, trans_pcie->txqs.txq[txq_id], in iwl_pcie_tx_alloc()
866 trans_pcie->txqs.txq[txq_id]->id = txq_id; in iwl_pcie_tx_alloc()
968 bool cmd_queue = (txq_id == trans_pcie->txqs.cmd.q_id); in iwl_pcie_tx_init()
976 ret = iwl_txq_init(trans, trans_pcie->txqs.txq[txq_id], slots_num, in iwl_pcie_tx_init()
990 trans_pcie->txqs.txq[txq_id]->dma_addr >> 8); in iwl_pcie_tx_init()
1084 struct iwl_txq *txq = trans_pcie->txqs.txq[txq_id]; in iwl_pcie_cmdq_reclaim()
1095 WARN_ONCE(test_bit(txq_id, trans_pcie->txqs.queue_used), in iwl_pcie_cmdq_reclaim()
1154 struct iwl_txq *txq = trans_pcie->txqs.txq[txq_id]; in iwl_trans_pcie_txq_enable()
1158 if (test_and_set_bit(txq_id, trans_pcie->txqs.queue_used)) in iwl_trans_pcie_txq_enable()
1167 if (txq_id == trans_pcie->txqs.cmd.q_id && in iwl_trans_pcie_txq_enable()
1175 if (txq_id != trans_pcie->txqs.cmd.q_id) in iwl_trans_pcie_txq_enable()
1245 if (txq_id == trans_pcie->txqs.cmd.q_id && in iwl_trans_pcie_txq_enable()
1265 struct iwl_txq *txq = trans_pcie->txqs.txq[txq_id]; in iwl_trans_pcie_txq_set_shared_mode()
1278 trans_pcie->txqs.txq[txq_id]->frozen_expiry_remainder = 0; in iwl_trans_pcie_txq_disable()
1279 trans_pcie->txqs.txq[txq_id]->frozen = false; in iwl_trans_pcie_txq_disable()
1287 if (!test_and_clear_bit(txq_id, trans_pcie->txqs.queue_used)) { in iwl_trans_pcie_txq_disable()
1301 trans_pcie->txqs.txq[txq_id]->ampdu = false; in iwl_trans_pcie_txq_disable()
1314 struct iwl_txq *txq = trans_pcie->txqs.txq[i]; in iwl_trans_pcie_block_txq_ptrs()
1316 if (i == trans_pcie->txqs.cmd.q_id) in iwl_trans_pcie_block_txq_ptrs()
1349 struct iwl_txq *txq = trans_pcie->txqs.txq[trans_pcie->txqs.cmd.q_id]; in iwl_pcie_enqueue_hcmd()
1476 cpu_to_le16(QUEUE_TO_SEQ(trans_pcie->txqs.cmd.q_id) | in iwl_pcie_enqueue_hcmd()
1484 cpu_to_le16(QUEUE_TO_SEQ(trans_pcie->txqs.cmd.q_id) | in iwl_pcie_enqueue_hcmd()
1535 cmd_size, txq->write_ptr, idx, trans_pcie->txqs.cmd.q_id); in iwl_pcie_enqueue_hcmd()
1634 struct iwl_txq *txq = trans_pcie->txqs.txq[trans_pcie->txqs.cmd.q_id]; in iwl_pcie_hcmd_complete()
1639 if (WARN(txq_id != trans_pcie->txqs.cmd.q_id, in iwl_pcie_hcmd_complete()
1641 txq_id, trans_pcie->txqs.cmd.q_id, sequence, txq->read_ptr, in iwl_pcie_hcmd_complete()
1748 struct iwl_tso_hdr_page *p = this_cpu_ptr(trans_pcie->txqs.tso_hdr_page); in iwl_pcie_get_page_hdr()
1754 page_ptr = (void *)((u8 *)skb->cb + trans_pcie->txqs.page_offs); in iwl_pcie_get_page_hdr()
1927 trans_pcie->txqs.tfd.size, in iwl_fill_data_tbs_amsdu()
2073 scd_bc_tbl = trans_pcie->txqs.scd_bc_tbls.addr; in iwl_txq_gen1_update_byte_cnt_tbl()
2088 if (trans_pcie->txqs.bc_table_dword) in iwl_txq_gen1_update_byte_cnt_tbl()
2121 txq = trans_pcie->txqs.txq[txq_id]; in iwl_trans_pcie_tx()
2123 if (WARN_ONCE(!test_bit(txq_id, trans_pcie->txqs.queue_used), in iwl_trans_pcie_tx()
2149 trans_pcie->txqs.dev_cmd_offs); in iwl_trans_pcie_tx()
2232 trans_pcie->txqs.tfd.size, in iwl_trans_pcie_tx()
2308 struct iwlagn_scd_bc_tbl *scd_bc_tbl = trans_pcie->txqs.scd_bc_tbls.addr; in iwl_txq_gen1_inval_byte_cnt_tbl()
2317 if (txq_id != trans_pcie->txqs.cmd.q_id) in iwl_txq_gen1_inval_byte_cnt_tbl()
2334 struct iwl_txq *txq = trans_pcie->txqs.txq[txq_id]; in iwl_pcie_reclaim()
2339 if (WARN_ON(txq_id == trans_pcie->txqs.cmd.q_id)) in iwl_pcie_reclaim()
2356 if (!test_bit(txq_id, trans_pcie->txqs.queue_used)) { in iwl_pcie_reclaim()
2419 test_bit(txq_id, trans_pcie->txqs.queue_stopped)) { in iwl_pcie_reclaim()
2448 trans_pcie->txqs.dev_cmd_offs); in iwl_pcie_reclaim()
2474 struct iwl_txq *txq = trans_pcie->txqs.txq[txq_id]; in iwl_pcie_set_q_ptrs()
2485 unsigned long txqs, bool freeze) in iwl_pcie_freeze_txq_timer() argument
2490 for_each_set_bit(queue, &txqs, BITS_PER_LONG) { in iwl_pcie_freeze_txq_timer()
2491 struct iwl_txq *txq = trans_pcie->txqs.txq[queue]; in iwl_pcie_freeze_txq_timer()
2544 struct iwl_txq *txq = trans_pcie->txqs.txq[trans_pcie->txqs.cmd.q_id]; in iwl_trans_pcie_send_hcmd_sync()