Lines Matching +full:reset +full:- +full:phy +full:- +full:on +full:- +full:wake

1 // SPDX-License-Identifier: GPL-2.0
18 #include <linux/phy/pcie.h>
19 #include <linux/phy/phy.h>
23 #include <linux/reset.h>
27 #include "pcie-designware.h"
28 #include "pcie-qcom-common.h"
153 #define to_pcie_ep(x) dev_get_drvdata((x)->dev)
163 * struct qcom_pcie_ep_cfg - Per SoC config struct
164 * @hdma_support: HDMA support on this SoC
175 * struct qcom_pcie_ep - Qualcomm PCIe Endpoint Controller
182 * @core_reset: PCIe Endpoint core reset
183 * @reset: PERST# GPIO
184 * @wake: WAKE# GPIO
185 * @phy: PHY controller block
207 struct gpio_desc *reset; member
208 struct gpio_desc *wake; member
209 struct phy *phy; member
228 struct dw_pcie *pci = &pcie_ep->pci; in qcom_pcie_ep_core_reset()
229 struct device *dev = pci->dev; in qcom_pcie_ep_core_reset()
232 ret = reset_control_assert(pcie_ep->core_reset); in qcom_pcie_ep_core_reset()
234 dev_err(dev, "Cannot assert core reset\n"); in qcom_pcie_ep_core_reset()
240 ret = reset_control_deassert(pcie_ep->core_reset); in qcom_pcie_ep_core_reset()
242 dev_err(dev, "Cannot de-assert core reset\n"); in qcom_pcie_ep_core_reset()
253 * device reset during host reboot and hibernation. The driver is
258 if (pcie_ep->perst_map) { in qcom_pcie_ep_configure_tcsr()
259 regmap_write(pcie_ep->perst_map, pcie_ep->perst_en, 0); in qcom_pcie_ep_configure_tcsr()
260 regmap_write(pcie_ep->perst_map, pcie_ep->perst_sep_en, 0); in qcom_pcie_ep_configure_tcsr()
269 reg = readl_relaxed(pcie_ep->elbi + ELBI_SYS_STTS); in qcom_pcie_dw_link_up()
278 enable_irq(pcie_ep->perst_irq); in qcom_pcie_dw_start_link()
287 disable_irq(pcie_ep->perst_irq); in qcom_pcie_dw_stop_link()
296 writel(1, pcie_ep->elbi + ELBI_CS2_ENABLE); in qcom_pcie_dw_write_dbi2()
298 ret = dw_pcie_write(pci->dbi_base2 + reg, size, val); in qcom_pcie_dw_write_dbi2()
300 dev_err(pci->dev, "Failed to write DBI2 register (0x%x): %d\n", reg, ret); in qcom_pcie_dw_write_dbi2()
302 writel(0, pcie_ep->elbi + ELBI_CS2_ENABLE); in qcom_pcie_dw_write_dbi2()
307 struct dw_pcie *pci = &pcie_ep->pci; in qcom_pcie_ep_icc_update()
312 if (!pcie_ep->icc_mem) in qcom_pcie_ep_icc_update()
316 status = readw(pci->dbi_base + offset + PCI_EXP_LNKSTA); in qcom_pcie_ep_icc_update()
321 ret = icc_set_bw(pcie_ep->icc_mem, 0, width * QCOM_PCIE_LINK_SPEED_TO_BW(speed)); in qcom_pcie_ep_icc_update()
323 dev_err(pci->dev, "failed to set interconnect bandwidth: %d\n", in qcom_pcie_ep_icc_update()
329 struct dw_pcie *pci = &pcie_ep->pci; in qcom_pcie_enable_resources()
332 ret = clk_bulk_prepare_enable(pcie_ep->num_clks, pcie_ep->clks); in qcom_pcie_enable_resources()
340 ret = phy_init(pcie_ep->phy); in qcom_pcie_enable_resources()
344 ret = phy_set_mode_ext(pcie_ep->phy, PHY_MODE_PCIE, PHY_MODE_PCIE_EP); in qcom_pcie_enable_resources()
348 ret = phy_power_on(pcie_ep->phy); in qcom_pcie_enable_resources()
356 * Set an initial peak bandwidth corresponding to single-lane Gen 1 in qcom_pcie_enable_resources()
357 * for the pcie-mem path. in qcom_pcie_enable_resources()
359 ret = icc_set_bw(pcie_ep->icc_mem, 0, QCOM_PCIE_LINK_SPEED_TO_BW(1)); in qcom_pcie_enable_resources()
361 dev_err(pci->dev, "failed to set interconnect bandwidth: %d\n", in qcom_pcie_enable_resources()
369 phy_power_off(pcie_ep->phy); in qcom_pcie_enable_resources()
371 phy_exit(pcie_ep->phy); in qcom_pcie_enable_resources()
373 clk_bulk_disable_unprepare(pcie_ep->num_clks, pcie_ep->clks); in qcom_pcie_enable_resources()
380 icc_set_bw(pcie_ep->icc_mem, 0, 0); in qcom_pcie_disable_resources()
381 phy_power_off(pcie_ep->phy); in qcom_pcie_disable_resources()
382 phy_exit(pcie_ep->phy); in qcom_pcie_disable_resources()
383 clk_bulk_disable_unprepare(pcie_ep->num_clks, pcie_ep->clks); in qcom_pcie_disable_resources()
389 struct device *dev = pci->dev; in qcom_pcie_perst_deassert()
399 /* Assert WAKE# to RC to indicate device is ready */ in qcom_pcie_perst_deassert()
400 gpiod_set_value_cansleep(pcie_ep->wake, 1); in qcom_pcie_perst_deassert()
402 gpiod_set_value_cansleep(pcie_ep->wake, 0); in qcom_pcie_perst_deassert()
407 val = readl_relaxed(pcie_ep->parf + PARF_BDF_TO_SID_CFG); in qcom_pcie_perst_deassert()
409 writel_relaxed(val, pcie_ep->parf + PARF_BDF_TO_SID_CFG); in qcom_pcie_perst_deassert()
412 val = readl_relaxed(pcie_ep->parf + PARF_DEBUG_INT_EN); in qcom_pcie_perst_deassert()
416 writel_relaxed(val, pcie_ep->parf + PARF_DEBUG_INT_EN); in qcom_pcie_perst_deassert()
419 writel_relaxed(PARF_DEVICE_TYPE_EP, pcie_ep->parf + PARF_DEVICE_TYPE); in qcom_pcie_perst_deassert()
422 val = readl_relaxed(pcie_ep->parf + PARF_PM_CTRL); in qcom_pcie_perst_deassert()
424 writel_relaxed(val, pcie_ep->parf + PARF_PM_CTRL); in qcom_pcie_perst_deassert()
427 val = readl_relaxed(pcie_ep->parf + PARF_AXI_MSTR_RD_HALT_NO_WRITES); in qcom_pcie_perst_deassert()
429 writel_relaxed(val, pcie_ep->parf + PARF_AXI_MSTR_RD_HALT_NO_WRITES); in qcom_pcie_perst_deassert()
432 val = readl_relaxed(pcie_ep->parf + PARF_AXI_MSTR_WR_ADDR_HALT); in qcom_pcie_perst_deassert()
434 writel_relaxed(val, pcie_ep->parf + PARF_AXI_MSTR_WR_ADDR_HALT); in qcom_pcie_perst_deassert()
437 val = readl_relaxed(pcie_ep->parf + PARF_Q2A_FLUSH); in qcom_pcie_perst_deassert()
439 writel_relaxed(val, pcie_ep->parf + PARF_Q2A_FLUSH); in qcom_pcie_perst_deassert()
447 val = readl_relaxed(pcie_ep->parf + PARF_SYS_CTRL); in qcom_pcie_perst_deassert()
452 writel_relaxed(val, pcie_ep->parf + PARF_SYS_CTRL); in qcom_pcie_perst_deassert()
455 val = readl_relaxed(pcie_ep->parf + PARF_DB_CTRL); in qcom_pcie_perst_deassert()
459 writel_relaxed(val, pcie_ep->parf + PARF_DB_CTRL); in qcom_pcie_perst_deassert()
462 val = readl_relaxed(pcie_ep->parf + PARF_CFG_BITS); in qcom_pcie_perst_deassert()
464 writel_relaxed(val, pcie_ep->parf + PARF_CFG_BITS); in qcom_pcie_perst_deassert()
468 /* Set the L0s Exit Latency to 2us-4us = 0x6 */ in qcom_pcie_perst_deassert()
475 /* Set the L1 Exit Latency to be 32us-64 us = 0x6 */ in qcom_pcie_perst_deassert()
484 writel_relaxed(0, pcie_ep->parf + PARF_INT_ALL_MASK); in qcom_pcie_perst_deassert()
488 writel_relaxed(val, pcie_ep->parf + PARF_INT_ALL_MASK); in qcom_pcie_perst_deassert()
490 if (pcie_ep->cfg && pcie_ep->cfg->disable_mhi_ram_parity_check) { in qcom_pcie_perst_deassert()
491 val = readl_relaxed(pcie_ep->parf + PARF_INT_ALL_5_MASK); in qcom_pcie_perst_deassert()
493 writel_relaxed(val, pcie_ep->parf + PARF_INT_ALL_5_MASK); in qcom_pcie_perst_deassert()
496 ret = dw_pcie_ep_init_registers(&pcie_ep->pci.ep); in qcom_pcie_perst_deassert()
502 if (pcie_link_speed[pci->max_link_speed] == PCIE_SPEED_16_0GT) { in qcom_pcie_perst_deassert()
511 writel_relaxed(pcie_ep->mmio_res->start, in qcom_pcie_perst_deassert()
512 pcie_ep->parf + PARF_MHI_BASE_ADDR_LOWER); in qcom_pcie_perst_deassert()
513 writel_relaxed(0, pcie_ep->parf + PARF_MHI_BASE_ADDR_UPPER); in qcom_pcie_perst_deassert()
516 val = readl_relaxed(pcie_ep->parf + PARF_MHI_CLOCK_RESET_CTRL); in qcom_pcie_perst_deassert()
518 writel_relaxed(val, pcie_ep->parf + PARF_MHI_CLOCK_RESET_CTRL); in qcom_pcie_perst_deassert()
520 pci_epc_init_notify(pcie_ep->pci.ep.epc); in qcom_pcie_perst_deassert()
523 val = readl_relaxed(pcie_ep->parf + PARF_LTSSM); in qcom_pcie_perst_deassert()
525 writel_relaxed(val, pcie_ep->parf + PARF_LTSSM); in qcom_pcie_perst_deassert()
527 if (pcie_ep->cfg && pcie_ep->cfg->override_no_snoop) in qcom_pcie_perst_deassert()
529 pcie_ep->parf + PARF_NO_SNOOP_OVERIDE); in qcom_pcie_perst_deassert()
543 pci_epc_deinit_notify(pci->ep.epc); in qcom_pcie_perst_assert()
544 dw_pcie_ep_cleanup(&pci->ep); in qcom_pcie_perst_assert()
546 pcie_ep->link_status = QCOM_PCIE_EP_LINK_DISABLED; in qcom_pcie_perst_assert()
560 struct device *dev = &pdev->dev; in qcom_pcie_ep_get_io_resources()
561 struct dw_pcie *pci = &pcie_ep->pci; in qcom_pcie_ep_get_io_resources()
566 pcie_ep->parf = devm_platform_ioremap_resource_byname(pdev, "parf"); in qcom_pcie_ep_get_io_resources()
567 if (IS_ERR(pcie_ep->parf)) in qcom_pcie_ep_get_io_resources()
568 return PTR_ERR(pcie_ep->parf); in qcom_pcie_ep_get_io_resources()
571 pci->dbi_base = devm_pci_remap_cfg_resource(dev, res); in qcom_pcie_ep_get_io_resources()
572 if (IS_ERR(pci->dbi_base)) in qcom_pcie_ep_get_io_resources()
573 return PTR_ERR(pci->dbi_base); in qcom_pcie_ep_get_io_resources()
574 pci->dbi_base2 = pci->dbi_base; in qcom_pcie_ep_get_io_resources()
577 pcie_ep->elbi = devm_pci_remap_cfg_resource(dev, res); in qcom_pcie_ep_get_io_resources()
578 if (IS_ERR(pcie_ep->elbi)) in qcom_pcie_ep_get_io_resources()
579 return PTR_ERR(pcie_ep->elbi); in qcom_pcie_ep_get_io_resources()
581 pcie_ep->mmio_res = platform_get_resource_byname(pdev, IORESOURCE_MEM, in qcom_pcie_ep_get_io_resources()
583 if (!pcie_ep->mmio_res) { in qcom_pcie_ep_get_io_resources()
585 return -EINVAL; in qcom_pcie_ep_get_io_resources()
588 pcie_ep->mmio = devm_pci_remap_cfg_resource(dev, pcie_ep->mmio_res); in qcom_pcie_ep_get_io_resources()
589 if (IS_ERR(pcie_ep->mmio)) in qcom_pcie_ep_get_io_resources()
590 return PTR_ERR(pcie_ep->mmio); in qcom_pcie_ep_get_io_resources()
592 syscon = of_parse_phandle(dev->of_node, "qcom,perst-regs", 0); in qcom_pcie_ep_get_io_resources()
598 pcie_ep->perst_map = syscon_node_to_regmap(syscon); in qcom_pcie_ep_get_io_resources()
600 if (IS_ERR(pcie_ep->perst_map)) in qcom_pcie_ep_get_io_resources()
601 return PTR_ERR(pcie_ep->perst_map); in qcom_pcie_ep_get_io_resources()
603 ret = of_property_read_u32_index(dev->of_node, "qcom,perst-regs", in qcom_pcie_ep_get_io_resources()
604 1, &pcie_ep->perst_en); in qcom_pcie_ep_get_io_resources()
610 ret = of_property_read_u32_index(dev->of_node, "qcom,perst-regs", in qcom_pcie_ep_get_io_resources()
611 2, &pcie_ep->perst_sep_en); in qcom_pcie_ep_get_io_resources()
623 struct device *dev = &pdev->dev; in qcom_pcie_ep_get_resources()
632 pcie_ep->num_clks = devm_clk_bulk_get_all(dev, &pcie_ep->clks); in qcom_pcie_ep_get_resources()
633 if (pcie_ep->num_clks < 0) { in qcom_pcie_ep_get_resources()
635 return pcie_ep->num_clks; in qcom_pcie_ep_get_resources()
638 pcie_ep->core_reset = devm_reset_control_get_exclusive(dev, "core"); in qcom_pcie_ep_get_resources()
639 if (IS_ERR(pcie_ep->core_reset)) in qcom_pcie_ep_get_resources()
640 return PTR_ERR(pcie_ep->core_reset); in qcom_pcie_ep_get_resources()
642 pcie_ep->reset = devm_gpiod_get(dev, "reset", GPIOD_IN); in qcom_pcie_ep_get_resources()
643 if (IS_ERR(pcie_ep->reset)) in qcom_pcie_ep_get_resources()
644 return PTR_ERR(pcie_ep->reset); in qcom_pcie_ep_get_resources()
646 pcie_ep->wake = devm_gpiod_get_optional(dev, "wake", GPIOD_OUT_LOW); in qcom_pcie_ep_get_resources()
647 if (IS_ERR(pcie_ep->wake)) in qcom_pcie_ep_get_resources()
648 return PTR_ERR(pcie_ep->wake); in qcom_pcie_ep_get_resources()
650 pcie_ep->phy = devm_phy_optional_get(dev, "pciephy"); in qcom_pcie_ep_get_resources()
651 if (IS_ERR(pcie_ep->phy)) in qcom_pcie_ep_get_resources()
652 ret = PTR_ERR(pcie_ep->phy); in qcom_pcie_ep_get_resources()
654 pcie_ep->icc_mem = devm_of_icc_get(dev, "pcie-mem"); in qcom_pcie_ep_get_resources()
655 if (IS_ERR(pcie_ep->icc_mem)) in qcom_pcie_ep_get_resources()
656 ret = PTR_ERR(pcie_ep->icc_mem); in qcom_pcie_ep_get_resources()
665 struct dw_pcie *pci = &pcie_ep->pci; in qcom_pcie_ep_global_irq_thread()
666 struct device *dev = pci->dev; in qcom_pcie_ep_global_irq_thread()
667 u32 status = readl_relaxed(pcie_ep->parf + PARF_INT_ALL_STATUS); in qcom_pcie_ep_global_irq_thread()
670 writel_relaxed(status, pcie_ep->parf + PARF_INT_ALL_CLEAR); in qcom_pcie_ep_global_irq_thread()
674 pcie_ep->link_status = QCOM_PCIE_EP_LINK_DOWN; in qcom_pcie_ep_global_irq_thread()
675 dw_pcie_ep_linkdown(&pci->ep); in qcom_pcie_ep_global_irq_thread()
678 pcie_ep->link_status = QCOM_PCIE_EP_LINK_ENABLED; in qcom_pcie_ep_global_irq_thread()
680 pci_epc_bus_master_enable_notify(pci->ep.epc); in qcom_pcie_ep_global_irq_thread()
682 dev_dbg(dev, "Received PM Turn-off event! Entering L23\n"); in qcom_pcie_ep_global_irq_thread()
683 val = readl_relaxed(pcie_ep->parf + PARF_PM_CTRL); in qcom_pcie_ep_global_irq_thread()
685 writel_relaxed(val, pcie_ep->parf + PARF_PM_CTRL); in qcom_pcie_ep_global_irq_thread()
691 val = readl_relaxed(pcie_ep->parf + PARF_PM_CTRL); in qcom_pcie_ep_global_irq_thread()
693 writel_relaxed(val, pcie_ep->parf + PARF_PM_CTRL); in qcom_pcie_ep_global_irq_thread()
697 dw_pcie_ep_linkup(&pci->ep); in qcom_pcie_ep_global_irq_thread()
698 pcie_ep->link_status = QCOM_PCIE_EP_LINK_UP; in qcom_pcie_ep_global_irq_thread()
710 struct dw_pcie *pci = &pcie_ep->pci; in qcom_pcie_ep_perst_irq_thread()
711 struct device *dev = pci->dev; in qcom_pcie_ep_perst_irq_thread()
714 perst = gpiod_get_value(pcie_ep->reset); in qcom_pcie_ep_perst_irq_thread()
719 dev_dbg(dev, "PERST de-asserted by host. Starting link training!\n"); in qcom_pcie_ep_perst_irq_thread()
723 irq_set_irq_type(gpiod_to_irq(pcie_ep->reset), in qcom_pcie_ep_perst_irq_thread()
732 struct device *dev = pcie_ep->pci.dev; in qcom_pcie_ep_enable_irq_resources()
737 pcie_ep->pci.ep.epc->domain_nr); in qcom_pcie_ep_enable_irq_resources()
739 return -ENOMEM; in qcom_pcie_ep_enable_irq_resources()
741 pcie_ep->global_irq = platform_get_irq_byname(pdev, "global"); in qcom_pcie_ep_enable_irq_resources()
742 if (pcie_ep->global_irq < 0) in qcom_pcie_ep_enable_irq_resources()
743 return pcie_ep->global_irq; in qcom_pcie_ep_enable_irq_resources()
745 ret = devm_request_threaded_irq(&pdev->dev, pcie_ep->global_irq, NULL, in qcom_pcie_ep_enable_irq_resources()
750 dev_err(&pdev->dev, "Failed to request Global IRQ\n"); in qcom_pcie_ep_enable_irq_resources()
755 pcie_ep->pci.ep.epc->domain_nr); in qcom_pcie_ep_enable_irq_resources()
757 return -ENOMEM; in qcom_pcie_ep_enable_irq_resources()
759 pcie_ep->perst_irq = gpiod_to_irq(pcie_ep->reset); in qcom_pcie_ep_enable_irq_resources()
760 irq_set_status_flags(pcie_ep->perst_irq, IRQ_NOAUTOEN); in qcom_pcie_ep_enable_irq_resources()
761 ret = devm_request_threaded_irq(&pdev->dev, pcie_ep->perst_irq, NULL, in qcom_pcie_ep_enable_irq_resources()
766 dev_err(&pdev->dev, "Failed to request PERST IRQ\n"); in qcom_pcie_ep_enable_irq_resources()
767 disable_irq(pcie_ep->global_irq); in qcom_pcie_ep_enable_irq_resources()
785 dev_err(pci->dev, "Unknown IRQ type\n"); in qcom_pcie_ep_raise_irq()
786 return -EINVAL; in qcom_pcie_ep_raise_irq()
793 dev_get_drvdata(s->private); in qcom_pcie_ep_link_transition_count()
796 readl_relaxed(pcie_ep->mmio + PARF_DEBUG_CNT_PM_LINKST_IN_L0S)); in qcom_pcie_ep_link_transition_count()
799 readl_relaxed(pcie_ep->mmio + PARF_DEBUG_CNT_PM_LINKST_IN_L1)); in qcom_pcie_ep_link_transition_count()
802 readl_relaxed(pcie_ep->mmio + PARF_DEBUG_CNT_AUX_CLK_IN_L1SUB_L1)); in qcom_pcie_ep_link_transition_count()
805 readl_relaxed(pcie_ep->mmio + PARF_DEBUG_CNT_AUX_CLK_IN_L1SUB_L2)); in qcom_pcie_ep_link_transition_count()
808 readl_relaxed(pcie_ep->mmio + PARF_DEBUG_CNT_PM_LINKST_IN_L2)); in qcom_pcie_ep_link_transition_count()
815 struct dw_pcie *pci = &pcie_ep->pci; in qcom_pcie_ep_init_debugfs()
817 debugfs_create_devm_seqfile(pci->dev, "link_transition_count", pcie_ep->debugfs, in qcom_pcie_ep_init_debugfs()
851 struct device *dev = &pdev->dev; in qcom_pcie_ep_probe()
858 return -ENOMEM; in qcom_pcie_ep_probe()
860 pcie_ep->pci.dev = dev; in qcom_pcie_ep_probe()
861 pcie_ep->pci.ops = &pci_ops; in qcom_pcie_ep_probe()
862 pcie_ep->pci.ep.ops = &pci_ep_ops; in qcom_pcie_ep_probe()
863 pcie_ep->pci.edma.nr_irqs = 1; in qcom_pcie_ep_probe()
865 pcie_ep->cfg = of_device_get_match_data(dev); in qcom_pcie_ep_probe()
866 if (pcie_ep->cfg && pcie_ep->cfg->hdma_support) { in qcom_pcie_ep_probe()
867 pcie_ep->pci.edma.ll_wr_cnt = 8; in qcom_pcie_ep_probe()
868 pcie_ep->pci.edma.ll_rd_cnt = 8; in qcom_pcie_ep_probe()
869 pcie_ep->pci.edma.mf = EDMA_MF_HDMA_NATIVE; in qcom_pcie_ep_probe()
878 ret = dw_pcie_ep_init(&pcie_ep->pci.ep); in qcom_pcie_ep_probe()
888 name = devm_kasprintf(dev, GFP_KERNEL, "%pOFP", dev->of_node); in qcom_pcie_ep_probe()
890 ret = -ENOMEM; in qcom_pcie_ep_probe()
894 pcie_ep->debugfs = debugfs_create_dir(name, NULL); in qcom_pcie_ep_probe()
900 disable_irq(pcie_ep->global_irq); in qcom_pcie_ep_probe()
901 disable_irq(pcie_ep->perst_irq); in qcom_pcie_ep_probe()
904 dw_pcie_ep_deinit(&pcie_ep->pci.ep); in qcom_pcie_ep_probe()
913 disable_irq(pcie_ep->global_irq); in qcom_pcie_ep_remove()
914 disable_irq(pcie_ep->perst_irq); in qcom_pcie_ep_remove()
916 debugfs_remove_recursive(pcie_ep->debugfs); in qcom_pcie_ep_remove()
918 if (pcie_ep->link_status == QCOM_PCIE_EP_LINK_DISABLED) in qcom_pcie_ep_remove()
931 { .compatible = "qcom,sa8775p-pcie-ep", .data = &cfg_1_34_0},
932 { .compatible = "qcom,sdx55-pcie-ep", },
933 { .compatible = "qcom,sm8450-pcie-ep", },
942 .name = "qcom-pcie-ep",