Lines Matching refs:pci
55 static int dw_pcie_get_clocks(struct dw_pcie *pci) in dw_pcie_get_clocks() argument
60 pci->app_clks[i].id = dw_pcie_app_clks[i]; in dw_pcie_get_clocks()
63 pci->core_clks[i].id = dw_pcie_core_clks[i]; in dw_pcie_get_clocks()
65 ret = devm_clk_bulk_get_optional(pci->dev, DW_PCIE_NUM_APP_CLKS, in dw_pcie_get_clocks()
66 pci->app_clks); in dw_pcie_get_clocks()
70 return devm_clk_bulk_get_optional(pci->dev, DW_PCIE_NUM_CORE_CLKS, in dw_pcie_get_clocks()
71 pci->core_clks); in dw_pcie_get_clocks()
74 static int dw_pcie_get_resets(struct dw_pcie *pci) in dw_pcie_get_resets() argument
79 pci->app_rsts[i].id = dw_pcie_app_rsts[i]; in dw_pcie_get_resets()
82 pci->core_rsts[i].id = dw_pcie_core_rsts[i]; in dw_pcie_get_resets()
84 ret = devm_reset_control_bulk_get_optional_shared(pci->dev, in dw_pcie_get_resets()
86 pci->app_rsts); in dw_pcie_get_resets()
90 ret = devm_reset_control_bulk_get_optional_exclusive(pci->dev, in dw_pcie_get_resets()
92 pci->core_rsts); in dw_pcie_get_resets()
96 pci->pe_rst = devm_gpiod_get_optional(pci->dev, "reset", GPIOD_OUT_HIGH); in dw_pcie_get_resets()
97 if (IS_ERR(pci->pe_rst)) in dw_pcie_get_resets()
98 return PTR_ERR(pci->pe_rst); in dw_pcie_get_resets()
103 int dw_pcie_get_resources(struct dw_pcie *pci) in dw_pcie_get_resources() argument
105 struct platform_device *pdev = to_platform_device(pci->dev); in dw_pcie_get_resources()
106 struct device_node *np = dev_of_node(pci->dev); in dw_pcie_get_resources()
110 if (!pci->dbi_base) { in dw_pcie_get_resources()
112 pci->dbi_base = devm_pci_remap_cfg_resource(pci->dev, res); in dw_pcie_get_resources()
113 if (IS_ERR(pci->dbi_base)) in dw_pcie_get_resources()
114 return PTR_ERR(pci->dbi_base); in dw_pcie_get_resources()
115 pci->dbi_phys_addr = res->start; in dw_pcie_get_resources()
119 if (!pci->dbi_base2) { in dw_pcie_get_resources()
122 pci->dbi_base2 = devm_pci_remap_cfg_resource(pci->dev, res); in dw_pcie_get_resources()
123 if (IS_ERR(pci->dbi_base2)) in dw_pcie_get_resources()
124 return PTR_ERR(pci->dbi_base2); in dw_pcie_get_resources()
126 pci->dbi_base2 = pci->dbi_base + SZ_4K; in dw_pcie_get_resources()
131 if (!pci->atu_base) { in dw_pcie_get_resources()
134 pci->atu_size = resource_size(res); in dw_pcie_get_resources()
135 pci->atu_base = devm_ioremap_resource(pci->dev, res); in dw_pcie_get_resources()
136 if (IS_ERR(pci->atu_base)) in dw_pcie_get_resources()
137 return PTR_ERR(pci->atu_base); in dw_pcie_get_resources()
138 pci->atu_phys_addr = res->start; in dw_pcie_get_resources()
140 pci->atu_base = pci->dbi_base + DEFAULT_DBI_ATU_OFFSET; in dw_pcie_get_resources()
145 if (!pci->atu_size) in dw_pcie_get_resources()
146 pci->atu_size = SZ_4K; in dw_pcie_get_resources()
149 if (!pci->edma.reg_base) { in dw_pcie_get_resources()
152 pci->edma.reg_base = devm_ioremap_resource(pci->dev, res); in dw_pcie_get_resources()
153 if (IS_ERR(pci->edma.reg_base)) in dw_pcie_get_resources()
154 return PTR_ERR(pci->edma.reg_base); in dw_pcie_get_resources()
155 } else if (pci->atu_size >= 2 * DEFAULT_DBI_DMA_OFFSET) { in dw_pcie_get_resources()
156 pci->edma.reg_base = pci->atu_base + DEFAULT_DBI_DMA_OFFSET; in dw_pcie_get_resources()
161 if (dw_pcie_cap_is(pci, REQ_RES)) { in dw_pcie_get_resources()
162 ret = dw_pcie_get_clocks(pci); in dw_pcie_get_resources()
166 ret = dw_pcie_get_resets(pci); in dw_pcie_get_resources()
171 if (pci->max_link_speed < 1) in dw_pcie_get_resources()
172 pci->max_link_speed = of_pci_get_max_link_speed(np); in dw_pcie_get_resources()
174 of_property_read_u32(np, "num-lanes", &pci->num_lanes); in dw_pcie_get_resources()
177 dw_pcie_cap_set(pci, CDM_CHECK); in dw_pcie_get_resources()
182 void dw_pcie_version_detect(struct dw_pcie *pci) in dw_pcie_version_detect() argument
187 ver = dw_pcie_readl_dbi(pci, PCIE_VERSION_NUMBER); in dw_pcie_version_detect()
191 if (pci->version && pci->version != ver) in dw_pcie_version_detect()
192 dev_warn(pci->dev, "Versions don't match (%08x != %08x)\n", in dw_pcie_version_detect()
193 pci->version, ver); in dw_pcie_version_detect()
195 pci->version = ver; in dw_pcie_version_detect()
197 ver = dw_pcie_readl_dbi(pci, PCIE_VERSION_TYPE); in dw_pcie_version_detect()
199 if (pci->type && pci->type != ver) in dw_pcie_version_detect()
200 dev_warn(pci->dev, "Types don't match (%08x != %08x)\n", in dw_pcie_version_detect()
201 pci->type, ver); in dw_pcie_version_detect()
203 pci->type = ver; in dw_pcie_version_detect()
211 static u8 __dw_pcie_find_next_cap(struct dw_pcie *pci, u8 cap_ptr, in __dw_pcie_find_next_cap() argument
220 reg = dw_pcie_readw_dbi(pci, cap_ptr); in __dw_pcie_find_next_cap()
230 return __dw_pcie_find_next_cap(pci, next_cap_ptr, cap); in __dw_pcie_find_next_cap()
233 u8 dw_pcie_find_capability(struct dw_pcie *pci, u8 cap) in dw_pcie_find_capability() argument
238 reg = dw_pcie_readw_dbi(pci, PCI_CAPABILITY_LIST); in dw_pcie_find_capability()
241 return __dw_pcie_find_next_cap(pci, next_cap_ptr, cap); in dw_pcie_find_capability()
245 static u16 dw_pcie_find_next_ext_capability(struct dw_pcie *pci, u16 start, in dw_pcie_find_next_ext_capability() argument
258 header = dw_pcie_readl_dbi(pci, pos); in dw_pcie_find_next_ext_capability()
274 header = dw_pcie_readl_dbi(pci, pos); in dw_pcie_find_next_ext_capability()
280 u16 dw_pcie_find_ext_capability(struct dw_pcie *pci, u8 cap) in dw_pcie_find_ext_capability() argument
282 return dw_pcie_find_next_ext_capability(pci, 0, cap); in dw_pcie_find_ext_capability()
326 u32 dw_pcie_read_dbi(struct dw_pcie *pci, u32 reg, size_t size) in dw_pcie_read_dbi() argument
331 if (pci->ops && pci->ops->read_dbi) in dw_pcie_read_dbi()
332 return pci->ops->read_dbi(pci, pci->dbi_base, reg, size); in dw_pcie_read_dbi()
334 ret = dw_pcie_read(pci->dbi_base + reg, size, &val); in dw_pcie_read_dbi()
336 dev_err(pci->dev, "Read DBI address failed\n"); in dw_pcie_read_dbi()
342 void dw_pcie_write_dbi(struct dw_pcie *pci, u32 reg, size_t size, u32 val) in dw_pcie_write_dbi() argument
346 if (pci->ops && pci->ops->write_dbi) { in dw_pcie_write_dbi()
347 pci->ops->write_dbi(pci, pci->dbi_base, reg, size, val); in dw_pcie_write_dbi()
351 ret = dw_pcie_write(pci->dbi_base + reg, size, val); in dw_pcie_write_dbi()
353 dev_err(pci->dev, "Write DBI address failed\n"); in dw_pcie_write_dbi()
357 void dw_pcie_write_dbi2(struct dw_pcie *pci, u32 reg, size_t size, u32 val) in dw_pcie_write_dbi2() argument
361 if (pci->ops && pci->ops->write_dbi2) { in dw_pcie_write_dbi2()
362 pci->ops->write_dbi2(pci, pci->dbi_base2, reg, size, val); in dw_pcie_write_dbi2()
366 ret = dw_pcie_write(pci->dbi_base2 + reg, size, val); in dw_pcie_write_dbi2()
368 dev_err(pci->dev, "write DBI address failed\n"); in dw_pcie_write_dbi2()
372 static inline void __iomem *dw_pcie_select_atu(struct dw_pcie *pci, u32 dir, in dw_pcie_select_atu() argument
375 if (dw_pcie_cap_is(pci, IATU_UNROLL)) in dw_pcie_select_atu()
376 return pci->atu_base + PCIE_ATU_UNROLL_BASE(dir, index); in dw_pcie_select_atu()
378 dw_pcie_writel_dbi(pci, PCIE_ATU_VIEWPORT, dir | index); in dw_pcie_select_atu()
379 return pci->atu_base; in dw_pcie_select_atu()
382 static u32 dw_pcie_readl_atu(struct dw_pcie *pci, u32 dir, u32 index, u32 reg) in dw_pcie_readl_atu() argument
388 base = dw_pcie_select_atu(pci, dir, index); in dw_pcie_readl_atu()
390 if (pci->ops && pci->ops->read_dbi) in dw_pcie_readl_atu()
391 return pci->ops->read_dbi(pci, base, reg, 4); in dw_pcie_readl_atu()
395 dev_err(pci->dev, "Read ATU address failed\n"); in dw_pcie_readl_atu()
400 static void dw_pcie_writel_atu(struct dw_pcie *pci, u32 dir, u32 index, in dw_pcie_writel_atu() argument
406 base = dw_pcie_select_atu(pci, dir, index); in dw_pcie_writel_atu()
408 if (pci->ops && pci->ops->write_dbi) { in dw_pcie_writel_atu()
409 pci->ops->write_dbi(pci, base, reg, 4, val); in dw_pcie_writel_atu()
415 dev_err(pci->dev, "Write ATU address failed\n"); in dw_pcie_writel_atu()
418 static inline u32 dw_pcie_readl_atu_ob(struct dw_pcie *pci, u32 index, u32 reg) in dw_pcie_readl_atu_ob() argument
420 return dw_pcie_readl_atu(pci, PCIE_ATU_REGION_DIR_OB, index, reg); in dw_pcie_readl_atu_ob()
423 static inline void dw_pcie_writel_atu_ob(struct dw_pcie *pci, u32 index, u32 reg, in dw_pcie_writel_atu_ob() argument
426 dw_pcie_writel_atu(pci, PCIE_ATU_REGION_DIR_OB, index, reg, val); in dw_pcie_writel_atu_ob()
470 int dw_pcie_prog_outbound_atu(struct dw_pcie *pci, in dw_pcie_prog_outbound_atu() argument
477 if (pci->ops && pci->ops->cpu_addr_fixup) in dw_pcie_prog_outbound_atu()
478 cpu_addr = pci->ops->cpu_addr_fixup(pci, cpu_addr); in dw_pcie_prog_outbound_atu()
482 if ((limit_addr & ~pci->region_limit) != (cpu_addr & ~pci->region_limit) || in dw_pcie_prog_outbound_atu()
483 !IS_ALIGNED(cpu_addr, pci->region_align) || in dw_pcie_prog_outbound_atu()
484 !IS_ALIGNED(atu->pci_addr, pci->region_align) || !atu->size) { in dw_pcie_prog_outbound_atu()
488 dw_pcie_writel_atu_ob(pci, atu->index, PCIE_ATU_LOWER_BASE, in dw_pcie_prog_outbound_atu()
490 dw_pcie_writel_atu_ob(pci, atu->index, PCIE_ATU_UPPER_BASE, in dw_pcie_prog_outbound_atu()
493 dw_pcie_writel_atu_ob(pci, atu->index, PCIE_ATU_LIMIT, in dw_pcie_prog_outbound_atu()
495 if (dw_pcie_ver_is_ge(pci, 460A)) in dw_pcie_prog_outbound_atu()
496 dw_pcie_writel_atu_ob(pci, atu->index, PCIE_ATU_UPPER_LIMIT, in dw_pcie_prog_outbound_atu()
499 dw_pcie_writel_atu_ob(pci, atu->index, PCIE_ATU_LOWER_TARGET, in dw_pcie_prog_outbound_atu()
501 dw_pcie_writel_atu_ob(pci, atu->index, PCIE_ATU_UPPER_TARGET, in dw_pcie_prog_outbound_atu()
506 dw_pcie_ver_is_ge(pci, 460A)) in dw_pcie_prog_outbound_atu()
508 if (dw_pcie_ver_is(pci, 490A)) in dw_pcie_prog_outbound_atu()
510 dw_pcie_writel_atu_ob(pci, atu->index, PCIE_ATU_REGION_CTRL1, val); in dw_pcie_prog_outbound_atu()
517 dw_pcie_writel_atu_ob(pci, atu->index, PCIE_ATU_REGION_CTRL2, val); in dw_pcie_prog_outbound_atu()
524 val = dw_pcie_readl_atu_ob(pci, atu->index, PCIE_ATU_REGION_CTRL2); in dw_pcie_prog_outbound_atu()
531 dev_err(pci->dev, "Outbound iATU is not being enabled\n"); in dw_pcie_prog_outbound_atu()
536 static inline u32 dw_pcie_readl_atu_ib(struct dw_pcie *pci, u32 index, u32 reg) in dw_pcie_readl_atu_ib() argument
538 return dw_pcie_readl_atu(pci, PCIE_ATU_REGION_DIR_IB, index, reg); in dw_pcie_readl_atu_ib()
541 static inline void dw_pcie_writel_atu_ib(struct dw_pcie *pci, u32 index, u32 reg, in dw_pcie_writel_atu_ib() argument
544 dw_pcie_writel_atu(pci, PCIE_ATU_REGION_DIR_IB, index, reg, val); in dw_pcie_writel_atu_ib()
547 int dw_pcie_prog_inbound_atu(struct dw_pcie *pci, int index, int type, in dw_pcie_prog_inbound_atu() argument
553 if ((limit_addr & ~pci->region_limit) != (pci_addr & ~pci->region_limit) || in dw_pcie_prog_inbound_atu()
554 !IS_ALIGNED(cpu_addr, pci->region_align) || in dw_pcie_prog_inbound_atu()
555 !IS_ALIGNED(pci_addr, pci->region_align) || !size) { in dw_pcie_prog_inbound_atu()
559 dw_pcie_writel_atu_ib(pci, index, PCIE_ATU_LOWER_BASE, in dw_pcie_prog_inbound_atu()
561 dw_pcie_writel_atu_ib(pci, index, PCIE_ATU_UPPER_BASE, in dw_pcie_prog_inbound_atu()
564 dw_pcie_writel_atu_ib(pci, index, PCIE_ATU_LIMIT, in dw_pcie_prog_inbound_atu()
566 if (dw_pcie_ver_is_ge(pci, 460A)) in dw_pcie_prog_inbound_atu()
567 dw_pcie_writel_atu_ib(pci, index, PCIE_ATU_UPPER_LIMIT, in dw_pcie_prog_inbound_atu()
570 dw_pcie_writel_atu_ib(pci, index, PCIE_ATU_LOWER_TARGET, in dw_pcie_prog_inbound_atu()
572 dw_pcie_writel_atu_ib(pci, index, PCIE_ATU_UPPER_TARGET, in dw_pcie_prog_inbound_atu()
577 dw_pcie_ver_is_ge(pci, 460A)) in dw_pcie_prog_inbound_atu()
579 dw_pcie_writel_atu_ib(pci, index, PCIE_ATU_REGION_CTRL1, val); in dw_pcie_prog_inbound_atu()
580 dw_pcie_writel_atu_ib(pci, index, PCIE_ATU_REGION_CTRL2, PCIE_ATU_ENABLE); in dw_pcie_prog_inbound_atu()
587 val = dw_pcie_readl_atu_ib(pci, index, PCIE_ATU_REGION_CTRL2); in dw_pcie_prog_inbound_atu()
594 dev_err(pci->dev, "Inbound iATU is not being enabled\n"); in dw_pcie_prog_inbound_atu()
599 int dw_pcie_prog_ep_inbound_atu(struct dw_pcie *pci, u8 func_no, int index, in dw_pcie_prog_ep_inbound_atu() argument
604 if (!IS_ALIGNED(cpu_addr, pci->region_align)) in dw_pcie_prog_ep_inbound_atu()
607 dw_pcie_writel_atu_ib(pci, index, PCIE_ATU_LOWER_TARGET, in dw_pcie_prog_ep_inbound_atu()
609 dw_pcie_writel_atu_ib(pci, index, PCIE_ATU_UPPER_TARGET, in dw_pcie_prog_ep_inbound_atu()
612 dw_pcie_writel_atu_ib(pci, index, PCIE_ATU_REGION_CTRL1, type | in dw_pcie_prog_ep_inbound_atu()
614 dw_pcie_writel_atu_ib(pci, index, PCIE_ATU_REGION_CTRL2, in dw_pcie_prog_ep_inbound_atu()
623 val = dw_pcie_readl_atu_ib(pci, index, PCIE_ATU_REGION_CTRL2); in dw_pcie_prog_ep_inbound_atu()
630 dev_err(pci->dev, "Inbound iATU is not being enabled\n"); in dw_pcie_prog_ep_inbound_atu()
635 void dw_pcie_disable_atu(struct dw_pcie *pci, u32 dir, int index) in dw_pcie_disable_atu() argument
637 dw_pcie_writel_atu(pci, dir, index, PCIE_ATU_REGION_CTRL2, 0); in dw_pcie_disable_atu()
640 int dw_pcie_wait_for_link(struct dw_pcie *pci) in dw_pcie_wait_for_link() argument
647 if (dw_pcie_link_up(pci)) in dw_pcie_wait_for_link()
654 dev_info(pci->dev, "Phy link never came up\n"); in dw_pcie_wait_for_link()
658 offset = dw_pcie_find_capability(pci, PCI_CAP_ID_EXP); in dw_pcie_wait_for_link()
659 val = dw_pcie_readw_dbi(pci, offset + PCI_EXP_LNKSTA); in dw_pcie_wait_for_link()
661 dev_info(pci->dev, "PCIe Gen.%u x%u link up\n", in dw_pcie_wait_for_link()
669 int dw_pcie_link_up(struct dw_pcie *pci) in dw_pcie_link_up() argument
673 if (pci->ops && pci->ops->link_up) in dw_pcie_link_up()
674 return pci->ops->link_up(pci); in dw_pcie_link_up()
676 val = dw_pcie_readl_dbi(pci, PCIE_PORT_DEBUG1); in dw_pcie_link_up()
682 void dw_pcie_upconfig_setup(struct dw_pcie *pci) in dw_pcie_upconfig_setup() argument
686 val = dw_pcie_readl_dbi(pci, PCIE_PORT_MULTI_LANE_CTRL); in dw_pcie_upconfig_setup()
688 dw_pcie_writel_dbi(pci, PCIE_PORT_MULTI_LANE_CTRL, val); in dw_pcie_upconfig_setup()
692 static void dw_pcie_link_set_max_speed(struct dw_pcie *pci) in dw_pcie_link_set_max_speed() argument
695 u8 offset = dw_pcie_find_capability(pci, PCI_CAP_ID_EXP); in dw_pcie_link_set_max_speed()
697 cap = dw_pcie_readl_dbi(pci, offset + PCI_EXP_LNKCAP); in dw_pcie_link_set_max_speed()
704 if (pci->max_link_speed < 1) { in dw_pcie_link_set_max_speed()
705 pci->max_link_speed = FIELD_GET(PCI_EXP_LNKCAP_SLS, cap); in dw_pcie_link_set_max_speed()
709 ctrl2 = dw_pcie_readl_dbi(pci, offset + PCI_EXP_LNKCTL2); in dw_pcie_link_set_max_speed()
712 switch (pcie_link_speed[pci->max_link_speed]) { in dw_pcie_link_set_max_speed()
732 dw_pcie_writel_dbi(pci, offset + PCI_EXP_LNKCTL2, ctrl2 | link_speed); in dw_pcie_link_set_max_speed()
735 dw_pcie_writel_dbi(pci, offset + PCI_EXP_LNKCAP, cap | link_speed); in dw_pcie_link_set_max_speed()
739 static void dw_pcie_link_set_max_link_width(struct dw_pcie *pci, u32 num_lanes) in dw_pcie_link_set_max_link_width() argument
748 plc = dw_pcie_readl_dbi(pci, PCIE_PORT_LINK_CONTROL); in dw_pcie_link_set_max_link_width()
753 lwsc = dw_pcie_readl_dbi(pci, PCIE_LINK_WIDTH_SPEED_CONTROL); in dw_pcie_link_set_max_link_width()
773 dev_err(pci->dev, "num-lanes %u: invalid value\n", num_lanes); in dw_pcie_link_set_max_link_width()
776 dw_pcie_writel_dbi(pci, PCIE_PORT_LINK_CONTROL, plc); in dw_pcie_link_set_max_link_width()
777 dw_pcie_writel_dbi(pci, PCIE_LINK_WIDTH_SPEED_CONTROL, lwsc); in dw_pcie_link_set_max_link_width()
779 cap = dw_pcie_find_capability(pci, PCI_CAP_ID_EXP); in dw_pcie_link_set_max_link_width()
780 lnkcap = dw_pcie_readl_dbi(pci, cap + PCI_EXP_LNKCAP); in dw_pcie_link_set_max_link_width()
783 dw_pcie_writel_dbi(pci, cap + PCI_EXP_LNKCAP, lnkcap); in dw_pcie_link_set_max_link_width()
786 void dw_pcie_iatu_detect(struct dw_pcie *pci) in dw_pcie_iatu_detect() argument
792 val = dw_pcie_readl_dbi(pci, PCIE_ATU_VIEWPORT); in dw_pcie_iatu_detect()
794 dw_pcie_cap_set(pci, IATU_UNROLL); in dw_pcie_iatu_detect()
796 max_region = min((int)pci->atu_size / 512, 256); in dw_pcie_iatu_detect()
798 pci->atu_base = pci->dbi_base + PCIE_ATU_VIEWPORT_BASE; in dw_pcie_iatu_detect()
799 pci->atu_size = PCIE_ATU_VIEWPORT_SIZE; in dw_pcie_iatu_detect()
801 dw_pcie_writel_dbi(pci, PCIE_ATU_VIEWPORT, 0xFF); in dw_pcie_iatu_detect()
802 max_region = dw_pcie_readl_dbi(pci, PCIE_ATU_VIEWPORT) + 1; in dw_pcie_iatu_detect()
806 dw_pcie_writel_atu_ob(pci, ob, PCIE_ATU_LOWER_TARGET, 0x11110000); in dw_pcie_iatu_detect()
807 val = dw_pcie_readl_atu_ob(pci, ob, PCIE_ATU_LOWER_TARGET); in dw_pcie_iatu_detect()
813 dw_pcie_writel_atu_ib(pci, ib, PCIE_ATU_LOWER_TARGET, 0x11110000); in dw_pcie_iatu_detect()
814 val = dw_pcie_readl_atu_ib(pci, ib, PCIE_ATU_LOWER_TARGET); in dw_pcie_iatu_detect()
824 dev_err(pci->dev, "No iATU regions found\n"); in dw_pcie_iatu_detect()
828 dw_pcie_writel_atu(pci, dir, 0, PCIE_ATU_LIMIT, 0x0); in dw_pcie_iatu_detect()
829 min = dw_pcie_readl_atu(pci, dir, 0, PCIE_ATU_LIMIT); in dw_pcie_iatu_detect()
831 if (dw_pcie_ver_is_ge(pci, 460A)) { in dw_pcie_iatu_detect()
832 dw_pcie_writel_atu(pci, dir, 0, PCIE_ATU_UPPER_LIMIT, 0xFFFFFFFF); in dw_pcie_iatu_detect()
833 max = dw_pcie_readl_atu(pci, dir, 0, PCIE_ATU_UPPER_LIMIT); in dw_pcie_iatu_detect()
838 pci->num_ob_windows = ob; in dw_pcie_iatu_detect()
839 pci->num_ib_windows = ib; in dw_pcie_iatu_detect()
840 pci->region_align = 1 << fls(min); in dw_pcie_iatu_detect()
841 pci->region_limit = (max << 32) | (SZ_4G - 1); in dw_pcie_iatu_detect()
843 dev_info(pci->dev, "iATU: unroll %s, %u ob, %u ib, align %uK, limit %lluG\n", in dw_pcie_iatu_detect()
844 dw_pcie_cap_is(pci, IATU_UNROLL) ? "T" : "F", in dw_pcie_iatu_detect()
845 pci->num_ob_windows, pci->num_ib_windows, in dw_pcie_iatu_detect()
846 pci->region_align / SZ_1K, (pci->region_limit + 1) / SZ_1G); in dw_pcie_iatu_detect()
849 static u32 dw_pcie_readl_dma(struct dw_pcie *pci, u32 reg) in dw_pcie_readl_dma() argument
854 if (pci->ops && pci->ops->read_dbi) in dw_pcie_readl_dma()
855 return pci->ops->read_dbi(pci, pci->edma.reg_base, reg, 4); in dw_pcie_readl_dma()
857 ret = dw_pcie_read(pci->edma.reg_base + reg, 4, &val); in dw_pcie_readl_dma()
859 dev_err(pci->dev, "Read DMA address failed\n"); in dw_pcie_readl_dma()
886 static void dw_pcie_edma_init_data(struct dw_pcie *pci) in dw_pcie_edma_init_data() argument
888 pci->edma.dev = pci->dev; in dw_pcie_edma_init_data()
890 if (!pci->edma.ops) in dw_pcie_edma_init_data()
891 pci->edma.ops = &dw_pcie_edma_ops; in dw_pcie_edma_init_data()
893 pci->edma.flags |= DW_EDMA_CHIP_LOCAL; in dw_pcie_edma_init_data()
896 static int dw_pcie_edma_find_mf(struct dw_pcie *pci) in dw_pcie_edma_find_mf() argument
905 if (pci->edma.mf != EDMA_MF_EDMA_LEGACY) in dw_pcie_edma_find_mf()
906 return pci->edma.reg_base ? 0 : -ENODEV; in dw_pcie_edma_find_mf()
913 if (dw_pcie_ver_is_ge(pci, 540A)) in dw_pcie_edma_find_mf()
916 val = dw_pcie_readl_dbi(pci, PCIE_DMA_VIEWPORT_BASE + PCIE_DMA_CTRL); in dw_pcie_edma_find_mf()
918 if (val == 0xFFFFFFFF && pci->edma.reg_base) { in dw_pcie_edma_find_mf()
919 pci->edma.mf = EDMA_MF_EDMA_UNROLL; in dw_pcie_edma_find_mf()
921 pci->edma.mf = EDMA_MF_EDMA_LEGACY; in dw_pcie_edma_find_mf()
923 pci->edma.reg_base = pci->dbi_base + PCIE_DMA_VIEWPORT_BASE; in dw_pcie_edma_find_mf()
931 static int dw_pcie_edma_find_channels(struct dw_pcie *pci) in dw_pcie_edma_find_channels() argument
941 if (pci->edma.mf != EDMA_MF_HDMA_NATIVE) { in dw_pcie_edma_find_channels()
942 val = dw_pcie_readl_dma(pci, PCIE_DMA_CTRL); in dw_pcie_edma_find_channels()
944 pci->edma.ll_wr_cnt = FIELD_GET(PCIE_DMA_NUM_WR_CHAN, val); in dw_pcie_edma_find_channels()
945 pci->edma.ll_rd_cnt = FIELD_GET(PCIE_DMA_NUM_RD_CHAN, val); in dw_pcie_edma_find_channels()
949 if (!pci->edma.ll_wr_cnt || pci->edma.ll_wr_cnt > EDMA_MAX_WR_CH || in dw_pcie_edma_find_channels()
950 !pci->edma.ll_rd_cnt || pci->edma.ll_rd_cnt > EDMA_MAX_RD_CH) in dw_pcie_edma_find_channels()
956 static int dw_pcie_edma_find_chip(struct dw_pcie *pci) in dw_pcie_edma_find_chip() argument
960 dw_pcie_edma_init_data(pci); in dw_pcie_edma_find_chip()
962 ret = dw_pcie_edma_find_mf(pci); in dw_pcie_edma_find_chip()
966 return dw_pcie_edma_find_channels(pci); in dw_pcie_edma_find_chip()
969 static int dw_pcie_edma_irq_verify(struct dw_pcie *pci) in dw_pcie_edma_irq_verify() argument
971 struct platform_device *pdev = to_platform_device(pci->dev); in dw_pcie_edma_irq_verify()
972 u16 ch_cnt = pci->edma.ll_wr_cnt + pci->edma.ll_rd_cnt; in dw_pcie_edma_irq_verify()
976 if (pci->edma.nr_irqs == 1) in dw_pcie_edma_irq_verify()
978 else if (pci->edma.nr_irqs > 1) in dw_pcie_edma_irq_verify()
979 return pci->edma.nr_irqs != ch_cnt ? -EINVAL : 0; in dw_pcie_edma_irq_verify()
983 pci->edma.nr_irqs = 1; in dw_pcie_edma_irq_verify()
987 for (; pci->edma.nr_irqs < ch_cnt; pci->edma.nr_irqs++) { in dw_pcie_edma_irq_verify()
988 snprintf(name, sizeof(name), "dma%d", pci->edma.nr_irqs); in dw_pcie_edma_irq_verify()
998 static int dw_pcie_edma_ll_alloc(struct dw_pcie *pci) in dw_pcie_edma_ll_alloc() argument
1004 for (i = 0; i < pci->edma.ll_wr_cnt; i++) { in dw_pcie_edma_ll_alloc()
1005 ll = &pci->edma.ll_region_wr[i]; in dw_pcie_edma_ll_alloc()
1007 ll->vaddr.mem = dmam_alloc_coherent(pci->dev, ll->sz, in dw_pcie_edma_ll_alloc()
1015 for (i = 0; i < pci->edma.ll_rd_cnt; i++) { in dw_pcie_edma_ll_alloc()
1016 ll = &pci->edma.ll_region_rd[i]; in dw_pcie_edma_ll_alloc()
1018 ll->vaddr.mem = dmam_alloc_coherent(pci->dev, ll->sz, in dw_pcie_edma_ll_alloc()
1029 int dw_pcie_edma_detect(struct dw_pcie *pci) in dw_pcie_edma_detect() argument
1034 ret = dw_pcie_edma_find_chip(pci); in dw_pcie_edma_detect()
1039 ret = dw_pcie_edma_irq_verify(pci); in dw_pcie_edma_detect()
1041 dev_err(pci->dev, "Invalid eDMA IRQs found\n"); in dw_pcie_edma_detect()
1045 ret = dw_pcie_edma_ll_alloc(pci); in dw_pcie_edma_detect()
1047 dev_err(pci->dev, "Couldn't allocate LLP memory\n"); in dw_pcie_edma_detect()
1052 ret = dw_edma_probe(&pci->edma); in dw_pcie_edma_detect()
1054 dev_err(pci->dev, "Couldn't register eDMA device\n"); in dw_pcie_edma_detect()
1058 dev_info(pci->dev, "eDMA: unroll %s, %hu wr, %hu rd\n", in dw_pcie_edma_detect()
1059 pci->edma.mf == EDMA_MF_EDMA_UNROLL ? "T" : "F", in dw_pcie_edma_detect()
1060 pci->edma.ll_wr_cnt, pci->edma.ll_rd_cnt); in dw_pcie_edma_detect()
1065 void dw_pcie_edma_remove(struct dw_pcie *pci) in dw_pcie_edma_remove() argument
1067 dw_edma_remove(&pci->edma); in dw_pcie_edma_remove()
1070 void dw_pcie_setup(struct dw_pcie *pci) in dw_pcie_setup() argument
1074 dw_pcie_link_set_max_speed(pci); in dw_pcie_setup()
1077 if (pci->n_fts[0]) { in dw_pcie_setup()
1078 val = dw_pcie_readl_dbi(pci, PCIE_PORT_AFR); in dw_pcie_setup()
1080 val |= PORT_AFR_N_FTS(pci->n_fts[0]); in dw_pcie_setup()
1081 val |= PORT_AFR_CC_N_FTS(pci->n_fts[0]); in dw_pcie_setup()
1082 dw_pcie_writel_dbi(pci, PCIE_PORT_AFR, val); in dw_pcie_setup()
1086 if (pci->n_fts[1]) { in dw_pcie_setup()
1087 val = dw_pcie_readl_dbi(pci, PCIE_LINK_WIDTH_SPEED_CONTROL); in dw_pcie_setup()
1089 val |= pci->n_fts[1]; in dw_pcie_setup()
1090 dw_pcie_writel_dbi(pci, PCIE_LINK_WIDTH_SPEED_CONTROL, val); in dw_pcie_setup()
1093 if (dw_pcie_cap_is(pci, CDM_CHECK)) { in dw_pcie_setup()
1094 val = dw_pcie_readl_dbi(pci, PCIE_PL_CHK_REG_CONTROL_STATUS); in dw_pcie_setup()
1097 dw_pcie_writel_dbi(pci, PCIE_PL_CHK_REG_CONTROL_STATUS, val); in dw_pcie_setup()
1100 val = dw_pcie_readl_dbi(pci, PCIE_PORT_LINK_CONTROL); in dw_pcie_setup()
1103 dw_pcie_writel_dbi(pci, PCIE_PORT_LINK_CONTROL, val); in dw_pcie_setup()
1105 dw_pcie_link_set_max_link_width(pci, pci->num_lanes); in dw_pcie_setup()