Home
last modified time | relevance | path

Searched refs:se (Results 1 – 25 of 258) sorted by relevance

1234567891011

/linux-6.12.1/drivers/soc/qcom/
Dqcom-geni-se.c195 u32 geni_se_get_qup_hw_version(struct geni_se *se) in geni_se_get_qup_hw_version() argument
197 struct geni_wrapper *wrapper = se->wrapper; in geni_se_get_qup_hw_version()
236 static void geni_se_irq_clear(struct geni_se *se) in geni_se_irq_clear() argument
238 writel_relaxed(0, se->base + SE_GSI_EVENT_EN); in geni_se_irq_clear()
239 writel_relaxed(0xffffffff, se->base + SE_GENI_M_IRQ_CLEAR); in geni_se_irq_clear()
240 writel_relaxed(0xffffffff, se->base + SE_GENI_S_IRQ_CLEAR); in geni_se_irq_clear()
241 writel_relaxed(0xffffffff, se->base + SE_DMA_TX_IRQ_CLR); in geni_se_irq_clear()
242 writel_relaxed(0xffffffff, se->base + SE_DMA_RX_IRQ_CLR); in geni_se_irq_clear()
243 writel_relaxed(0xffffffff, se->base + SE_IRQ_EN); in geni_se_irq_clear()
255 void geni_se_init(struct geni_se *se, u32 rx_wm, u32 rx_rfr) in geni_se_init() argument
[all …]
/linux-6.12.1/drivers/crypto/tegra/
Dtegra-se-main.c121 static struct tegra_se_cmdbuf *tegra_se_host1x_bo_alloc(struct tegra_se *se, ssize_t size) in tegra_se_host1x_bo_alloc() argument
124 struct device *dev = se->dev->parent; in tegra_se_host1x_bo_alloc()
144 int tegra_se_host1x_submit(struct tegra_se *se, u32 size) in tegra_se_host1x_submit() argument
149 job = host1x_job_alloc(se->channel, 1, 0, true); in tegra_se_host1x_submit()
151 dev_err(se->dev, "failed to allocate host1x job\n"); in tegra_se_host1x_submit()
155 job->syncpt = host1x_syncpt_get(se->syncpt); in tegra_se_host1x_submit()
157 job->client = &se->client; in tegra_se_host1x_submit()
158 job->class = se->client.class; in tegra_se_host1x_submit()
160 job->engine_fallback_streamid = se->stream_id; in tegra_se_host1x_submit()
163 se->cmdbuf->words = size; in tegra_se_host1x_submit()
[all …]
Dtegra-se-aes.c26 struct tegra_se *se; member
43 struct tegra_se *se; member
67 struct tegra_se *se; member
206 struct tegra_se *se = ctx->se; in tegra_aes_prep_cmd() local
207 u32 *cpuvaddr = se->cmdbuf->addr; in tegra_aes_prep_cmd()
222 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->linear_ctr); in tegra_aes_prep_cmd()
227 cpuvaddr[i++] = se_host1x_opcode_nonincr(se->hw->regs->last_blk, 1); in tegra_aes_prep_cmd()
231 cpuvaddr[i++] = se_host1x_opcode_incr(se->hw->regs->config, 6); in tegra_aes_prep_cmd()
244 cpuvaddr[i++] = se_host1x_opcode_nonincr(se->hw->regs->op, 1); in tegra_aes_prep_cmd()
250 host1x_uclass_incr_syncpt_indx_f(se->syncpt_id); in tegra_aes_prep_cmd()
[all …]
Dtegra-se-key.c51 static unsigned int tegra_key_prep_ins_cmd(struct tegra_se *se, u32 *cpuvaddr, in tegra_key_prep_ins_cmd() argument
57 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->op); in tegra_key_prep_ins_cmd()
61 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->manifest); in tegra_key_prep_ins_cmd()
62 cpuvaddr[i++] = se->manifest(se->owner, alg, keylen); in tegra_key_prep_ins_cmd()
64 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->key_dst); in tegra_key_prep_ins_cmd()
71 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->key_addr); in tegra_key_prep_ins_cmd()
76 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->key_data); in tegra_key_prep_ins_cmd()
81 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->config); in tegra_key_prep_ins_cmd()
85 cpuvaddr[i++] = se_host1x_opcode_incr_w(se->hw->regs->op); in tegra_key_prep_ins_cmd()
91 host1x_uclass_incr_syncpt_indx_f(se->syncpt_id); in tegra_key_prep_ins_cmd()
[all …]
DMakefile4 tegra-se-objs := tegra-se-key.o tegra-se-main.o
6 tegra-se-y += tegra-se-aes.o
7 tegra-se-y += tegra-se-hash.o
9 obj-$(CONFIG_CRYPTO_DEV_TEGRA) += tegra-se.o
Dtegra-se-hash.c25 struct tegra_se *se; member
214 static int tegra_sha_prep_cmd(struct tegra_se *se, u32 *cpuvaddr, in tegra_sha_prep_cmd() argument
274 host1x_uclass_incr_syncpt_indx_f(se->syncpt_id); in tegra_sha_prep_cmd()
276 dev_dbg(se->dev, "msg len %llu msg left %llu cfg %#x", in tegra_sha_prep_cmd()
282 static void tegra_sha_copy_hash_result(struct tegra_se *se, struct tegra_sha_reqctx *rctx) in tegra_sha_copy_hash_result() argument
287 rctx->result[i] = readl(se->base + se->hw->regs->result + (i * 4)); in tegra_sha_copy_hash_result()
290 static void tegra_sha_paste_hash_result(struct tegra_se *se, struct tegra_sha_reqctx *rctx) in tegra_sha_paste_hash_result() argument
296 se->base + se->hw->regs->result + (i * 4)); in tegra_sha_paste_hash_result()
304 u32 *cpuvaddr = ctx->se->cmdbuf->addr; in tegra_sha_do_update()
356 tegra_sha_paste_hash_result(ctx->se, rctx); in tegra_sha_do_update()
[all …]
/linux-6.12.1/include/linux/soc/qcom/
Dgeni-se.h316 u32 geni_se_get_qup_hw_version(struct geni_se *se);
324 static inline u32 geni_se_read_proto(struct geni_se *se) in geni_se_read_proto() argument
328 val = readl_relaxed(se->base + GENI_FW_REVISION_RO); in geni_se_read_proto()
342 static inline void geni_se_setup_m_cmd(struct geni_se *se, u32 cmd, u32 params) in geni_se_setup_m_cmd() argument
347 writel(m_cmd, se->base + SE_GENI_M_CMD0); in geni_se_setup_m_cmd()
359 static inline void geni_se_setup_s_cmd(struct geni_se *se, u32 cmd, u32 params) in geni_se_setup_s_cmd() argument
363 s_cmd = readl_relaxed(se->base + SE_GENI_S_CMD0); in geni_se_setup_s_cmd()
367 writel(s_cmd, se->base + SE_GENI_S_CMD0); in geni_se_setup_s_cmd()
378 static inline void geni_se_cancel_m_cmd(struct geni_se *se) in geni_se_cancel_m_cmd() argument
380 writel_relaxed(M_GENI_CMD_CANCEL, se->base + SE_GENI_M_CMD_CTRL_REG); in geni_se_cancel_m_cmd()
[all …]
/linux-6.12.1/drivers/i2c/busses/
Di2c-qcom-geni.c81 struct geni_se se; member
174 writel_relaxed(0, gi2c->se.base + SE_GENI_CLK_SEL); in qcom_geni_i2c_conf()
177 writel_relaxed(val, gi2c->se.base + GENI_SER_M_CLK_CFG); in qcom_geni_i2c_conf()
182 writel_relaxed(val, gi2c->se.base + SE_I2C_SCL_COUNTERS); in qcom_geni_i2c_conf()
187 u32 m_cmd = readl_relaxed(gi2c->se.base + SE_GENI_M_CMD0); in geni_i2c_err_misc()
188 u32 m_stat = readl_relaxed(gi2c->se.base + SE_GENI_M_IRQ_STATUS); in geni_i2c_err_misc()
189 u32 geni_s = readl_relaxed(gi2c->se.base + SE_GENI_STATUS); in geni_i2c_err_misc()
190 u32 geni_ios = readl_relaxed(gi2c->se.base + SE_GENI_IOS); in geni_i2c_err_misc()
191 u32 dma = readl_relaxed(gi2c->se.base + SE_GENI_DMA_MODE_EN); in geni_i2c_err_misc()
195 rx_st = readl_relaxed(gi2c->se.base + SE_DMA_RX_IRQ_STAT); in geni_i2c_err_misc()
[all …]
/linux-6.12.1/kernel/sched/
Dfair.c289 static inline u64 calc_delta_fair(u64 delta, struct sched_entity *se) in calc_delta_fair() argument
291 if (unlikely(se->load.weight != NICE_0_LOAD)) in calc_delta_fair()
292 delta = __calc_delta(delta, NICE_0_LOAD, &se->load); in calc_delta_fair()
306 #define for_each_sched_entity(se) \ argument
307 for (; se; se = se->parent)
409 is_same_group(struct sched_entity *se, struct sched_entity *pse) in is_same_group() argument
411 if (se->cfs_rq == pse->cfs_rq) in is_same_group()
412 return se->cfs_rq; in is_same_group()
417 static inline struct sched_entity *parent_entity(const struct sched_entity *se) in parent_entity() argument
419 return se->parent; in parent_entity()
[all …]
Dpelt.c295 int __update_load_avg_blocked_se(u64 now, struct sched_entity *se) in __update_load_avg_blocked_se() argument
297 if (___update_load_sum(now, &se->avg, 0, 0, 0)) { in __update_load_avg_blocked_se()
298 ___update_load_avg(&se->avg, se_weight(se)); in __update_load_avg_blocked_se()
299 trace_pelt_se_tp(se); in __update_load_avg_blocked_se()
306 int __update_load_avg_se(u64 now, struct cfs_rq *cfs_rq, struct sched_entity *se) in __update_load_avg_se() argument
308 if (___update_load_sum(now, &se->avg, !!se->on_rq, se_runnable(se), in __update_load_avg_se()
309 cfs_rq->curr == se)) { in __update_load_avg_se()
311 ___update_load_avg(&se->avg, se_weight(se)); in __update_load_avg_se()
312 cfs_se_util_change(&se->avg); in __update_load_avg_se()
313 trace_pelt_se_tp(se); in __update_load_avg_se()
Ddebug.c653 struct sched_entity *se = tg->se[cpu]; in print_cfs_group_stats() local
662 if (!se) in print_cfs_group_stats()
665 PN(se->exec_start); in print_cfs_group_stats()
666 PN(se->vruntime); in print_cfs_group_stats()
667 PN(se->sum_exec_runtime); in print_cfs_group_stats()
671 stats = __schedstats_from_se(se); in print_cfs_group_stats()
685 P(se->load.weight); in print_cfs_group_stats()
687 P(se->avg.load_avg); in print_cfs_group_stats()
688 P(se->avg.util_avg); in print_cfs_group_stats()
689 P(se->avg.runnable_avg); in print_cfs_group_stats()
[all …]
/linux-6.12.1/drivers/spi/
Dspi-geni-qcom.c79 struct geni_se se; member
108 struct geni_se *se = &mas->se; in spi_slv_setup() local
110 writel(SPI_SLAVE_EN, se->base + SE_SPI_SLAVE_EN); in spi_slv_setup()
111 writel(GENI_IO_MUX_0_EN, se->base + GENI_OUTPUT_CTRL); in spi_slv_setup()
112 writel(START_TRIGGER, se->base + SE_GENI_CFG_SEQ_START); in spi_slv_setup()
125 ret = geni_se_clk_freq_match(&mas->se, in get_spi_clk_cfg()
153 struct geni_se *se = &mas->se; in handle_se_timeout() local
158 writel(0, se->base + SE_GENI_TX_WATERMARK_REG); in handle_se_timeout()
173 geni_se_cancel_m_cmd(se); in handle_se_timeout()
182 geni_se_abort_m_cmd(se); in handle_se_timeout()
[all …]
/linux-6.12.1/drivers/gpu/drm/v3d/
Dv3d_submit.c160 u32 in_sync, struct v3d_submit_ext *se, enum v3d_queue queue) in v3d_job_init() argument
163 bool has_multisync = se && (se->flags & DRM_V3D_EXT_ID_MULTI_SYNC); in v3d_job_init()
176 if (se->in_sync_count && se->wait_stage == queue) { in v3d_job_init()
177 struct drm_v3d_sem __user *handle = u64_to_user_ptr(se->in_syncs); in v3d_job_init()
179 for (i = 0; i < se->in_sync_count; i++) { in v3d_job_init()
229 struct v3d_submit_ext *se, in v3d_attach_fences_and_unlock_reservation() argument
233 bool has_multisync = se && (se->flags & DRM_V3D_EXT_ID_MULTI_SYNC); in v3d_attach_fences_and_unlock_reservation()
256 if (se->out_sync_count) { in v3d_attach_fences_and_unlock_reservation()
257 for (i = 0; i < se->out_sync_count; i++) { in v3d_attach_fences_and_unlock_reservation()
258 drm_syncobj_replace_fence(se->out_syncs[i].syncobj, in v3d_attach_fences_and_unlock_reservation()
[all …]
/linux-6.12.1/drivers/tty/serial/
Dqcom_geni_serial.c119 struct geni_se se; member
201 port->se.base = uport->membase; in qcom_geni_serial_request_port()
412 geni_se_setup_s_cmd(&port->se, UART_START_READ, 0); in qcom_geni_serial_poll_init()
612 geni_se_tx_dma_unprep(&port->se, port->tx_dma_addr, in qcom_geni_serial_stop_tx_dma()
618 geni_se_cancel_m_cmd(&port->se); in qcom_geni_serial_stop_tx_dma()
623 geni_se_abort_m_cmd(&port->se); in qcom_geni_serial_stop_tx_dma()
653 ret = geni_se_tx_dma_prep(&port->se, tail, xmit_size, in qcom_geni_serial_start_tx_dma()
703 geni_se_cancel_m_cmd(&port->se); in __qcom_geni_serial_cancel_tx_cmd()
706 geni_se_abort_m_cmd(&port->se); in __qcom_geni_serial_cancel_tx_cmd()
768 geni_se_cancel_s_cmd(&port->se); in qcom_geni_serial_stop_rx_fifo()
[all …]
/linux-6.12.1/net/nfc/
Dcore.c536 struct nfc_se *se; in nfc_find_se() local
538 list_for_each_entry(se, &dev->secure_elements, list) in nfc_find_se()
539 if (se->idx == se_idx) in nfc_find_se()
540 return se; in nfc_find_se()
548 struct nfc_se *se; in nfc_enable_se() local
575 se = nfc_find_se(dev, se_idx); in nfc_enable_se()
576 if (!se) { in nfc_enable_se()
581 if (se->state == NFC_SE_ENABLED) { in nfc_enable_se()
588 se->state = NFC_SE_ENABLED; in nfc_enable_se()
597 struct nfc_se *se; in nfc_disable_se() local
[all …]
/linux-6.12.1/tools/testing/selftests/timers/
Dalarmtimer-suspend.c123 struct sigevent se; in main() local
134 memset(&se, 0, sizeof(se)); in main()
135 se.sigev_notify = SIGEV_SIGNAL; in main()
136 se.sigev_signo = signum; in main()
137 se.sigev_value.sival_int = 0; in main()
144 if (timer_create(alarm_clock_id, &se, &tm1) == -1) { in main()
/linux-6.12.1/Documentation/translations/sp_SP/process/
D2.Process.rst25 lanzamientos se ve así:
45 se dice que la "merge window" (ventana de fusión) está abierta. En ese
46 momento, el código que se considera lo suficientemente estable (y que es
47 aceptado por la comunidad de desarrollo) se fusiona en el kernel mainline.
49 los cambios principales) se fusionarán durante este tiempo, a un ritmo
53 (Aparte, vale la pena señalar que los cambios integrados durante la
55 y montados con anticipación. Como funciona ese proceso se describirá en
61 ejemplo, el lanzamiento al final de la ventana de fusión se llamará
62 5.6-rc1. El lanzamiento -rc1 señala que el tiempo para fusionar nuevas
67 problemas deben enviarse al mainline. En ocasiones, se permitirá un cambio
[all …]
Dmaintainer-kvm-x86.rst11 KVM se esfuerza por ser una comunidad acogedora; las contribuciones de los
12 recién llegados son valoradas e incentivadas. Por favor, no se desanime ni
13 se sienta intimidado por la extensión de este documento y las numerosas
27 KVM x86 se encuentra actualmente en un período de transición de ser parte
33 Por lo general, las correcciones para el ciclo en curso se aplican
35 para el siguiente ciclo se dirige a través del árbol de KVM x86. En el
36 improbable caso de que una corrección para el ciclo actual se dirija a
37 través del árbol KVM x86, se aplicará a la rama ``fixes`` antes de llegar
40 Tenga en cuenta que se espera que este periodo de transición dure bastante
53 Todas las ramas temáticas, excepto ``next`` y ``fixes``, se agrupan en
[all …]
Ddeprecated.rst17 han de ir creándose en el kernel, mientras que las antiguas se quitan,
25 Mientras que este atributo señala visualmente que un interface ha sido
38 "imposibles" tan elegantemente como se pueda. Mientras que la familia de
42 "¿en qué orden se necesitan liberar los locks? ¿Se han restaurado sus
51 en situaciones que se "esperan no sean alcanzables". Si se quiere
64 que se realicen reservas de memoria menores que las que se esperaban. El
69 como se sugiere a continuación para evitar las operaciones aritméticas en
83 Si no existen funciones con dos argumentos, utilice las funciones que se
98 .. note:: Si se usa struct_size() en una estructura que contiene un elemento
137 es la función strscpy(), aunque se ha de tener cuidado con cualquier caso
[all …]
Dhandling-regressions.rst24 * Cuando se reciba un correo que no incluyó a la lista, inclúyalo en la
42 * Cuando se mandan informes desde un gestor de incidentes a la lista de
49 #. Cuando se manden correcciones para las regresiones, añadir etiquetas
50 "Link:" a la descripción, apuntado a todos los sitios donde se informó
51 del incidente, como se indica en el documento:
66 Qué hacer cuando se recibe un aviso de regresión.
74 * Cuando se recibe un informe por email que no tiene en CC la lista,
83 anteriormente, como se indica en:
86 Cuando se realice cualquiera de las acciones anteriores, considere
90 * Para los informes enviados por email, verificar si se ha incluido un
[all …]
Dsecurity-bugs.rst10 Los desarrolladores del kernel de Linux se toman la seguridad muy en
11 serio. Como tal, nos gustaría saber cuándo se encuentra un error de
28 Como ocurre con cualquier error, cuanta más información se proporcione,
33 que envia el error) a menos que ya se haya hecho público.
48 Coordinación debajo. Una vez que se ha desarrollado una solución robusta,
50 públicamente se lanzan inmediatamente.
56 a 14 días de calendario si se acuerda que la criticalidad del error requiere
62 confianza para desarrollar una solución, dicha información no se publicará
64 permiso del reportero. Esto incluye, pero no se limita al informe original
70 de seguimiento del informe se tratan confidencialmente incluso después de
[all …]
/linux-6.12.1/drivers/gpu/drm/amd/amdkfd/
Dkfd_mqd_manager.c107 int i, se, sh, cu, cu_bitmap_sh_mul, cu_inc = wgp_mode_req ? 2 : 1; in mqd_symmetrically_map_cu_mask() local
147 for (se = 0; se < gfx_info->max_shader_engines; se++) in mqd_symmetrically_map_cu_mask()
149 cu_per_sh[se][sh] = hweight32( in mqd_symmetrically_map_cu_mask()
150 cu_info->bitmap[xcc_inst][se % 4][sh + (se / 4) * in mqd_symmetrically_map_cu_mask()
195 for (se = 0; se < gfx_info->max_shader_engines; se++) { in mqd_symmetrically_map_cu_mask()
196 if (cu_per_sh[se][sh] > cu) { in mqd_symmetrically_map_cu_mask()
198 se_mask[se] |= en_mask << (cu + sh * 16); in mqd_symmetrically_map_cu_mask()
/linux-6.12.1/Documentation/translations/sp_SP/scheduler/
Dsched-design-CFS.rst18 del previo gestor de tareas SCHED_OTHER. Hoy en día se está abriendo camino
19 para el gestor de tareas EEVDF, cuya documentación se puede ver en
30 como si se ejecutaran en paralelo.
32 En hardware real, se puede ejecutar una única tarea a la vez, así que
33 se ha usado el concepto de "tiempo de ejecución virtual". El tiempo
44 En CFS, el tiempo de ejecución virtual se expresa y se monitoriza por
45 cada tarea, en su valor de p->se.vruntime (en unidades de nanosegundos).
50 tareas pueden tener el mismo valor de p->se.vruntime --- i.e., tareas
51 se podrían ejecutar simultáneamente y ninguna tarea podría escaparse del
54 La lógica de elección del tareas de CFS se basa en el valor de p->se.vruntime
[all …]
/linux-6.12.1/Documentation/translations/zh_CN/scheduler/
Dsched-design-CFS.rst36 在CFS中,虚拟运行时间由每个任务的p->se.vruntime(单位为纳秒)的值表达和跟踪。因此,
39 一些细节:在“理想的”硬件上,所有的任务在任何时刻都应该具有一样的p->se.vruntime值,
42 CFS的任务选择逻辑基于p->se.vruntime的值,因此非常简单:总是试图选择p->se.vruntime值
64 CFS维护了一个按时间排序的红黑树,所有可运行任务以p->se.vruntime为键值排序。CFS从这颗
70 p->se.vruntime。一旦p->se.vruntime变得足够大,其它的任务将成为按时间排序的红黑树的
/linux-6.12.1/fs/f2fs/
Dsegment.h27 #define SE_PAGETYPE(se) ((IS_NODESEG((se)->type) ? NODE : DATA)) argument
357 struct seg_entry *se = get_seg_entry(sbi, start_segno); in get_ckpt_valid_blocks() local
359 blocks += se->ckpt_valid_blocks; in get_ckpt_valid_blocks()
366 static inline void seg_info_from_raw_sit(struct seg_entry *se, in seg_info_from_raw_sit() argument
369 se->valid_blocks = GET_SIT_VBLOCKS(rs); in seg_info_from_raw_sit()
370 se->ckpt_valid_blocks = GET_SIT_VBLOCKS(rs); in seg_info_from_raw_sit()
371 memcpy(se->cur_valid_map, rs->valid_map, SIT_VBLOCK_MAP_SIZE); in seg_info_from_raw_sit()
372 memcpy(se->ckpt_valid_map, rs->valid_map, SIT_VBLOCK_MAP_SIZE); in seg_info_from_raw_sit()
374 memcpy(se->cur_valid_map_mir, rs->valid_map, SIT_VBLOCK_MAP_SIZE); in seg_info_from_raw_sit()
376 se->type = GET_SIT_TYPE(rs); in seg_info_from_raw_sit()
[all …]

1234567891011