/linux-6.12.1/drivers/soc/qcom/ |
D | qcom-geni-se.c | 195 u32 geni_se_get_qup_hw_version(struct geni_se *se) in geni_se_get_qup_hw_version() argument 197 struct geni_wrapper *wrapper = se->wrapper; in geni_se_get_qup_hw_version() 236 static void geni_se_irq_clear(struct geni_se *se) in geni_se_irq_clear() argument 238 writel_relaxed(0, se->base + SE_GSI_EVENT_EN); in geni_se_irq_clear() 239 writel_relaxed(0xffffffff, se->base + SE_GENI_M_IRQ_CLEAR); in geni_se_irq_clear() 240 writel_relaxed(0xffffffff, se->base + SE_GENI_S_IRQ_CLEAR); in geni_se_irq_clear() 241 writel_relaxed(0xffffffff, se->base + SE_DMA_TX_IRQ_CLR); in geni_se_irq_clear() 242 writel_relaxed(0xffffffff, se->base + SE_DMA_RX_IRQ_CLR); in geni_se_irq_clear() 243 writel_relaxed(0xffffffff, se->base + SE_IRQ_EN); in geni_se_irq_clear() 255 void geni_se_init(struct geni_se *se, u32 rx_wm, u32 rx_rfr) in geni_se_init() argument [all …]
|
/linux-6.12.1/drivers/crypto/tegra/ |
D | tegra-se-main.c | 121 static struct tegra_se_cmdbuf *tegra_se_host1x_bo_alloc(struct tegra_se *se, ssize_t size) in tegra_se_host1x_bo_alloc() argument 124 struct device *dev = se->dev->parent; in tegra_se_host1x_bo_alloc() 144 int tegra_se_host1x_submit(struct tegra_se *se, u32 size) in tegra_se_host1x_submit() argument 149 job = host1x_job_alloc(se->channel, 1, 0, true); in tegra_se_host1x_submit() 151 dev_err(se->dev, "failed to allocate host1x job\n"); in tegra_se_host1x_submit() 155 job->syncpt = host1x_syncpt_get(se->syncpt); in tegra_se_host1x_submit() 157 job->client = &se->client; in tegra_se_host1x_submit() 158 job->class = se->client.class; in tegra_se_host1x_submit() 160 job->engine_fallback_streamid = se->stream_id; in tegra_se_host1x_submit() 163 se->cmdbuf->words = size; in tegra_se_host1x_submit() [all …]
|
D | tegra-se-aes.c | 26 struct tegra_se *se; member 43 struct tegra_se *se; member 67 struct tegra_se *se; member 206 struct tegra_se *se = ctx->se; in tegra_aes_prep_cmd() local 207 u32 *cpuvaddr = se->cmdbuf->addr; in tegra_aes_prep_cmd() 222 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->linear_ctr); in tegra_aes_prep_cmd() 227 cpuvaddr[i++] = se_host1x_opcode_nonincr(se->hw->regs->last_blk, 1); in tegra_aes_prep_cmd() 231 cpuvaddr[i++] = se_host1x_opcode_incr(se->hw->regs->config, 6); in tegra_aes_prep_cmd() 244 cpuvaddr[i++] = se_host1x_opcode_nonincr(se->hw->regs->op, 1); in tegra_aes_prep_cmd() 250 host1x_uclass_incr_syncpt_indx_f(se->syncpt_id); in tegra_aes_prep_cmd() [all …]
|
D | tegra-se-key.c | 51 static unsigned int tegra_key_prep_ins_cmd(struct tegra_se *se, u32 *cpuvaddr, in tegra_key_prep_ins_cmd() argument 57 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->op); in tegra_key_prep_ins_cmd() 61 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->manifest); in tegra_key_prep_ins_cmd() 62 cpuvaddr[i++] = se->manifest(se->owner, alg, keylen); in tegra_key_prep_ins_cmd() 64 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->key_dst); in tegra_key_prep_ins_cmd() 71 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->key_addr); in tegra_key_prep_ins_cmd() 76 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->key_data); in tegra_key_prep_ins_cmd() 81 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->config); in tegra_key_prep_ins_cmd() 85 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->op); in tegra_key_prep_ins_cmd() 91 host1x_uclass_incr_syncpt_indx_f(se->syncpt_id); in tegra_key_prep_ins_cmd() [all …]
|
D | Makefile | 4 tegra-se-objs := tegra-se-key.o tegra-se-main.o 6 tegra-se-y += tegra-se-aes.o 7 tegra-se-y += tegra-se-hash.o 9 obj-$(CONFIG_CRYPTO_DEV_TEGRA) += tegra-se.o
|
D | tegra-se-hash.c | 25 struct tegra_se *se; member 214 static int tegra_sha_prep_cmd(struct tegra_se *se, u32 *cpuvaddr, in tegra_sha_prep_cmd() argument 274 host1x_uclass_incr_syncpt_indx_f(se->syncpt_id); in tegra_sha_prep_cmd() 276 dev_dbg(se->dev, "msg len %llu msg left %llu cfg %#x", in tegra_sha_prep_cmd() 282 static void tegra_sha_copy_hash_result(struct tegra_se *se, struct tegra_sha_reqctx *rctx) in tegra_sha_copy_hash_result() argument 287 rctx->result[i] = readl(se->base + se->hw->regs->result + (i * 4)); in tegra_sha_copy_hash_result() 290 static void tegra_sha_paste_hash_result(struct tegra_se *se, struct tegra_sha_reqctx *rctx) in tegra_sha_paste_hash_result() argument 296 se->base + se->hw->regs->result + (i * 4)); in tegra_sha_paste_hash_result() 304 u32 *cpuvaddr = ctx->se->cmdbuf->addr; in tegra_sha_do_update() 356 tegra_sha_paste_hash_result(ctx->se, rctx); in tegra_sha_do_update() [all …]
|
/linux-6.12.1/include/linux/soc/qcom/ |
D | geni-se.h | 316 u32 geni_se_get_qup_hw_version(struct geni_se *se); 324 static inline u32 geni_se_read_proto(struct geni_se *se) in geni_se_read_proto() argument 328 val = readl_relaxed(se->base + GENI_FW_REVISION_RO); in geni_se_read_proto() 342 static inline void geni_se_setup_m_cmd(struct geni_se *se, u32 cmd, u32 params) in geni_se_setup_m_cmd() argument 347 writel(m_cmd, se->base + SE_GENI_M_CMD0); in geni_se_setup_m_cmd() 359 static inline void geni_se_setup_s_cmd(struct geni_se *se, u32 cmd, u32 params) in geni_se_setup_s_cmd() argument 363 s_cmd = readl_relaxed(se->base + SE_GENI_S_CMD0); in geni_se_setup_s_cmd() 367 writel(s_cmd, se->base + SE_GENI_S_CMD0); in geni_se_setup_s_cmd() 378 static inline void geni_se_cancel_m_cmd(struct geni_se *se) in geni_se_cancel_m_cmd() argument 380 writel_relaxed(M_GENI_CMD_CANCEL, se->base + SE_GENI_M_CMD_CTRL_REG); in geni_se_cancel_m_cmd() [all …]
|
/linux-6.12.1/drivers/i2c/busses/ |
D | i2c-qcom-geni.c | 81 struct geni_se se; member 174 writel_relaxed(0, gi2c->se.base + SE_GENI_CLK_SEL); in qcom_geni_i2c_conf() 177 writel_relaxed(val, gi2c->se.base + GENI_SER_M_CLK_CFG); in qcom_geni_i2c_conf() 182 writel_relaxed(val, gi2c->se.base + SE_I2C_SCL_COUNTERS); in qcom_geni_i2c_conf() 187 u32 m_cmd = readl_relaxed(gi2c->se.base + SE_GENI_M_CMD0); in geni_i2c_err_misc() 188 u32 m_stat = readl_relaxed(gi2c->se.base + SE_GENI_M_IRQ_STATUS); in geni_i2c_err_misc() 189 u32 geni_s = readl_relaxed(gi2c->se.base + SE_GENI_STATUS); in geni_i2c_err_misc() 190 u32 geni_ios = readl_relaxed(gi2c->se.base + SE_GENI_IOS); in geni_i2c_err_misc() 191 u32 dma = readl_relaxed(gi2c->se.base + SE_GENI_DMA_MODE_EN); in geni_i2c_err_misc() 195 rx_st = readl_relaxed(gi2c->se.base + SE_DMA_RX_IRQ_STAT); in geni_i2c_err_misc() [all …]
|
/linux-6.12.1/kernel/sched/ |
D | fair.c | 289 static inline u64 calc_delta_fair(u64 delta, struct sched_entity *se) in calc_delta_fair() argument 291 if (unlikely(se->load.weight != NICE_0_LOAD)) in calc_delta_fair() 292 delta = __calc_delta(delta, NICE_0_LOAD, &se->load); in calc_delta_fair() 306 #define for_each_sched_entity(se) \ argument 307 for (; se; se = se->parent) 409 is_same_group(struct sched_entity *se, struct sched_entity *pse) in is_same_group() argument 411 if (se->cfs_rq == pse->cfs_rq) in is_same_group() 412 return se->cfs_rq; in is_same_group() 417 static inline struct sched_entity *parent_entity(const struct sched_entity *se) in parent_entity() argument 419 return se->parent; in parent_entity() [all …]
|
D | pelt.c | 295 int __update_load_avg_blocked_se(u64 now, struct sched_entity *se) in __update_load_avg_blocked_se() argument 297 if (___update_load_sum(now, &se->avg, 0, 0, 0)) { in __update_load_avg_blocked_se() 298 ___update_load_avg(&se->avg, se_weight(se)); in __update_load_avg_blocked_se() 299 trace_pelt_se_tp(se); in __update_load_avg_blocked_se() 306 int __update_load_avg_se(u64 now, struct cfs_rq *cfs_rq, struct sched_entity *se) in __update_load_avg_se() argument 308 if (___update_load_sum(now, &se->avg, !!se->on_rq, se_runnable(se), in __update_load_avg_se() 309 cfs_rq->curr == se)) { in __update_load_avg_se() 311 ___update_load_avg(&se->avg, se_weight(se)); in __update_load_avg_se() 312 cfs_se_util_change(&se->avg); in __update_load_avg_se() 313 trace_pelt_se_tp(se); in __update_load_avg_se()
|
D | debug.c | 653 struct sched_entity *se = tg->se[cpu]; in print_cfs_group_stats() local 662 if (!se) in print_cfs_group_stats() 665 PN(se->exec_start); in print_cfs_group_stats() 666 PN(se->vruntime); in print_cfs_group_stats() 667 PN(se->sum_exec_runtime); in print_cfs_group_stats() 671 stats = __schedstats_from_se(se); in print_cfs_group_stats() 685 P(se->load.weight); in print_cfs_group_stats() 687 P(se->avg.load_avg); in print_cfs_group_stats() 688 P(se->avg.util_avg); in print_cfs_group_stats() 689 P(se->avg.runnable_avg); in print_cfs_group_stats() [all …]
|
/linux-6.12.1/drivers/spi/ |
D | spi-geni-qcom.c | 79 struct geni_se se; member 108 struct geni_se *se = &mas->se; in spi_slv_setup() local 110 writel(SPI_SLAVE_EN, se->base + SE_SPI_SLAVE_EN); in spi_slv_setup() 111 writel(GENI_IO_MUX_0_EN, se->base + GENI_OUTPUT_CTRL); in spi_slv_setup() 112 writel(START_TRIGGER, se->base + SE_GENI_CFG_SEQ_START); in spi_slv_setup() 125 ret = geni_se_clk_freq_match(&mas->se, in get_spi_clk_cfg() 153 struct geni_se *se = &mas->se; in handle_se_timeout() local 158 writel(0, se->base + SE_GENI_TX_WATERMARK_REG); in handle_se_timeout() 173 geni_se_cancel_m_cmd(se); in handle_se_timeout() 182 geni_se_abort_m_cmd(se); in handle_se_timeout() [all …]
|
/linux-6.12.1/drivers/gpu/drm/v3d/ |
D | v3d_submit.c | 160 u32 in_sync, struct v3d_submit_ext *se, enum v3d_queue queue) in v3d_job_init() argument 163 bool has_multisync = se && (se->flags & DRM_V3D_EXT_ID_MULTI_SYNC); in v3d_job_init() 176 if (se->in_sync_count && se->wait_stage == queue) { in v3d_job_init() 177 struct drm_v3d_sem __user *handle = u64_to_user_ptr(se->in_syncs); in v3d_job_init() 179 for (i = 0; i < se->in_sync_count; i++) { in v3d_job_init() 229 struct v3d_submit_ext *se, in v3d_attach_fences_and_unlock_reservation() argument 233 bool has_multisync = se && (se->flags & DRM_V3D_EXT_ID_MULTI_SYNC); in v3d_attach_fences_and_unlock_reservation() 256 if (se->out_sync_count) { in v3d_attach_fences_and_unlock_reservation() 257 for (i = 0; i < se->out_sync_count; i++) { in v3d_attach_fences_and_unlock_reservation() 258 drm_syncobj_replace_fence(se->out_syncs[i].syncobj, in v3d_attach_fences_and_unlock_reservation() [all …]
|
/linux-6.12.1/drivers/tty/serial/ |
D | qcom_geni_serial.c | 119 struct geni_se se; member 201 port->se.base = uport->membase; in qcom_geni_serial_request_port() 412 geni_se_setup_s_cmd(&port->se, UART_START_READ, 0); in qcom_geni_serial_poll_init() 612 geni_se_tx_dma_unprep(&port->se, port->tx_dma_addr, in qcom_geni_serial_stop_tx_dma() 618 geni_se_cancel_m_cmd(&port->se); in qcom_geni_serial_stop_tx_dma() 623 geni_se_abort_m_cmd(&port->se); in qcom_geni_serial_stop_tx_dma() 653 ret = geni_se_tx_dma_prep(&port->se, tail, xmit_size, in qcom_geni_serial_start_tx_dma() 703 geni_se_cancel_m_cmd(&port->se); in __qcom_geni_serial_cancel_tx_cmd() 706 geni_se_abort_m_cmd(&port->se); in __qcom_geni_serial_cancel_tx_cmd() 768 geni_se_cancel_s_cmd(&port->se); in qcom_geni_serial_stop_rx_fifo() [all …]
|
/linux-6.12.1/net/nfc/ |
D | core.c | 536 struct nfc_se *se; in nfc_find_se() local 538 list_for_each_entry(se, &dev->secure_elements, list) in nfc_find_se() 539 if (se->idx == se_idx) in nfc_find_se() 540 return se; in nfc_find_se() 548 struct nfc_se *se; in nfc_enable_se() local 575 se = nfc_find_se(dev, se_idx); in nfc_enable_se() 576 if (!se) { in nfc_enable_se() 581 if (se->state == NFC_SE_ENABLED) { in nfc_enable_se() 588 se->state = NFC_SE_ENABLED; in nfc_enable_se() 597 struct nfc_se *se; in nfc_disable_se() local [all …]
|
/linux-6.12.1/tools/testing/selftests/timers/ |
D | alarmtimer-suspend.c | 123 struct sigevent se; in main() local 134 memset(&se, 0, sizeof(se)); in main() 135 se.sigev_notify = SIGEV_SIGNAL; in main() 136 se.sigev_signo = signum; in main() 137 se.sigev_value.sival_int = 0; in main() 144 if (timer_create(alarm_clock_id, &se, &tm1) == -1) { in main()
|
/linux-6.12.1/Documentation/translations/sp_SP/process/ |
D | 2.Process.rst | 25 lanzamientos se ve así: 45 se dice que la "merge window" (ventana de fusión) está abierta. En ese 46 momento, el código que se considera lo suficientemente estable (y que es 47 aceptado por la comunidad de desarrollo) se fusiona en el kernel mainline. 49 los cambios principales) se fusionarán durante este tiempo, a un ritmo 53 (Aparte, vale la pena señalar que los cambios integrados durante la 55 y montados con anticipación. Como funciona ese proceso se describirá en 61 ejemplo, el lanzamiento al final de la ventana de fusión se llamará 62 5.6-rc1. El lanzamiento -rc1 señala que el tiempo para fusionar nuevas 67 problemas deben enviarse al mainline. En ocasiones, se permitirá un cambio [all …]
|
D | maintainer-kvm-x86.rst | 11 KVM se esfuerza por ser una comunidad acogedora; las contribuciones de los 12 recién llegados son valoradas e incentivadas. Por favor, no se desanime ni 13 se sienta intimidado por la extensión de este documento y las numerosas 27 KVM x86 se encuentra actualmente en un período de transición de ser parte 33 Por lo general, las correcciones para el ciclo en curso se aplican 35 para el siguiente ciclo se dirige a través del árbol de KVM x86. En el 36 improbable caso de que una corrección para el ciclo actual se dirija a 37 través del árbol KVM x86, se aplicará a la rama ``fixes`` antes de llegar 40 Tenga en cuenta que se espera que este periodo de transición dure bastante 53 Todas las ramas temáticas, excepto ``next`` y ``fixes``, se agrupan en [all …]
|
D | deprecated.rst | 17 han de ir creándose en el kernel, mientras que las antiguas se quitan, 25 Mientras que este atributo señala visualmente que un interface ha sido 38 "imposibles" tan elegantemente como se pueda. Mientras que la familia de 42 "¿en qué orden se necesitan liberar los locks? ¿Se han restaurado sus 51 en situaciones que se "esperan no sean alcanzables". Si se quiere 64 que se realicen reservas de memoria menores que las que se esperaban. El 69 como se sugiere a continuación para evitar las operaciones aritméticas en 83 Si no existen funciones con dos argumentos, utilice las funciones que se 98 .. note:: Si se usa struct_size() en una estructura que contiene un elemento 137 es la función strscpy(), aunque se ha de tener cuidado con cualquier caso [all …]
|
D | handling-regressions.rst | 24 * Cuando se reciba un correo que no incluyó a la lista, inclúyalo en la 42 * Cuando se mandan informes desde un gestor de incidentes a la lista de 49 #. Cuando se manden correcciones para las regresiones, añadir etiquetas 50 "Link:" a la descripción, apuntado a todos los sitios donde se informó 51 del incidente, como se indica en el documento: 66 Qué hacer cuando se recibe un aviso de regresión. 74 * Cuando se recibe un informe por email que no tiene en CC la lista, 83 anteriormente, como se indica en: 86 Cuando se realice cualquiera de las acciones anteriores, considere 90 * Para los informes enviados por email, verificar si se ha incluido un [all …]
|
D | security-bugs.rst | 10 Los desarrolladores del kernel de Linux se toman la seguridad muy en 11 serio. Como tal, nos gustaría saber cuándo se encuentra un error de 28 Como ocurre con cualquier error, cuanta más información se proporcione, 33 que envia el error) a menos que ya se haya hecho público. 48 Coordinación debajo. Una vez que se ha desarrollado una solución robusta, 50 públicamente se lanzan inmediatamente. 56 a 14 días de calendario si se acuerda que la criticalidad del error requiere 62 confianza para desarrollar una solución, dicha información no se publicará 64 permiso del reportero. Esto incluye, pero no se limita al informe original 70 de seguimiento del informe se tratan confidencialmente incluso después de [all …]
|
/linux-6.12.1/drivers/gpu/drm/amd/amdkfd/ |
D | kfd_mqd_manager.c | 107 int i, se, sh, cu, cu_bitmap_sh_mul, cu_inc = wgp_mode_req ? 2 : 1; in mqd_symmetrically_map_cu_mask() local 147 for (se = 0; se < gfx_info->max_shader_engines; se++) in mqd_symmetrically_map_cu_mask() 149 cu_per_sh[se][sh] = hweight32( in mqd_symmetrically_map_cu_mask() 150 cu_info->bitmap[xcc_inst][se % 4][sh + (se / 4) * in mqd_symmetrically_map_cu_mask() 195 for (se = 0; se < gfx_info->max_shader_engines; se++) { in mqd_symmetrically_map_cu_mask() 196 if (cu_per_sh[se][sh] > cu) { in mqd_symmetrically_map_cu_mask() 198 se_mask[se] |= en_mask << (cu + sh * 16); in mqd_symmetrically_map_cu_mask()
|
/linux-6.12.1/Documentation/translations/sp_SP/scheduler/ |
D | sched-design-CFS.rst | 18 del previo gestor de tareas SCHED_OTHER. Hoy en día se está abriendo camino 19 para el gestor de tareas EEVDF, cuya documentación se puede ver en 30 como si se ejecutaran en paralelo. 32 En hardware real, se puede ejecutar una única tarea a la vez, así que 33 se ha usado el concepto de "tiempo de ejecución virtual". El tiempo 44 En CFS, el tiempo de ejecución virtual se expresa y se monitoriza por 45 cada tarea, en su valor de p->se.vruntime (en unidades de nanosegundos). 50 tareas pueden tener el mismo valor de p->se.vruntime --- i.e., tareas 51 se podrían ejecutar simultáneamente y ninguna tarea podría escaparse del 54 La lógica de elección del tareas de CFS se basa en el valor de p->se.vruntime [all …]
|
/linux-6.12.1/Documentation/translations/zh_CN/scheduler/ |
D | sched-design-CFS.rst | 36 在CFS中,虚拟运行时间由每个任务的p->se.vruntime(单位为纳秒)的值表达和跟踪。因此, 39 一些细节:在“理想的”硬件上,所有的任务在任何时刻都应该具有一样的p->se.vruntime值, 42 CFS的任务选择逻辑基于p->se.vruntime的值,因此非常简单:总是试图选择p->se.vruntime值 64 CFS维护了一个按时间排序的红黑树,所有可运行任务以p->se.vruntime为键值排序。CFS从这颗 70 p->se.vruntime。一旦p->se.vruntime变得足够大,其它的任务将成为按时间排序的红黑树的
|
/linux-6.12.1/fs/f2fs/ |
D | segment.h | 27 #define SE_PAGETYPE(se) ((IS_NODESEG((se)->type) ? NODE : DATA)) argument 357 struct seg_entry *se = get_seg_entry(sbi, start_segno); in get_ckpt_valid_blocks() local 359 blocks += se->ckpt_valid_blocks; in get_ckpt_valid_blocks() 366 static inline void seg_info_from_raw_sit(struct seg_entry *se, in seg_info_from_raw_sit() argument 369 se->valid_blocks = GET_SIT_VBLOCKS(rs); in seg_info_from_raw_sit() 370 se->ckpt_valid_blocks = GET_SIT_VBLOCKS(rs); in seg_info_from_raw_sit() 371 memcpy(se->cur_valid_map, rs->valid_map, SIT_VBLOCK_MAP_SIZE); in seg_info_from_raw_sit() 372 memcpy(se->ckpt_valid_map, rs->valid_map, SIT_VBLOCK_MAP_SIZE); in seg_info_from_raw_sit() 374 memcpy(se->cur_valid_map_mir, rs->valid_map, SIT_VBLOCK_MAP_SIZE); in seg_info_from_raw_sit() 376 se->type = GET_SIT_TYPE(rs); in seg_info_from_raw_sit() [all …]
|