struct clockintr_queue: rename "cq_est" to "cq_all"
authorcheloha <cheloha@openbsd.org>
Sun, 17 Sep 2023 15:05:44 +0000 (15:05 +0000)
committercheloha <cheloha@openbsd.org>
Sun, 17 Sep 2023 15:05:44 +0000 (15:05 +0000)
"cq_all" is a more obvious name than "cq_est".  It's the list of all
established clockintrs.  Duh.

sys/kern/kern_clockintr.c
sys/sys/clockintr.h

index 5cfae36..af3a070 100644 (file)
@@ -1,4 +1,4 @@
-/* $OpenBSD: kern_clockintr.c,v 1.54 2023/09/17 14:50:50 cheloha Exp $ */
+/* $OpenBSD: kern_clockintr.c,v 1.55 2023/09/17 15:05:45 cheloha Exp $ */
 /*
  * Copyright (c) 2003 Dale Rahn <drahn@openbsd.org>
  * Copyright (c) 2020 Mark Kettenis <kettenis@openbsd.org>
@@ -348,7 +348,7 @@ clockintr_establish(void *vci,
        cl->cl_queue = cq;
 
        mtx_enter(&cq->cq_mtx);
-       TAILQ_INSERT_TAIL(&cq->cq_est, cl, cl_elink);
+       TAILQ_INSERT_TAIL(&cq->cq_all, cl, cl_alink);
        mtx_leave(&cq->cq_mtx);
        return cl;
 }
@@ -421,7 +421,7 @@ clockqueue_init(struct clockintr_queue *cq)
 
        cq->cq_shadow.cl_queue = cq;
        mtx_init(&cq->cq_mtx, IPL_CLOCK);
-       TAILQ_INIT(&cq->cq_est);
+       TAILQ_INIT(&cq->cq_all);
        TAILQ_INIT(&cq->cq_pend);
        cq->cq_gen = 1;
        SET(cq->cq_flags, CQ_INIT);
@@ -601,7 +601,7 @@ db_show_clockintr_cpu(struct cpu_info *ci)
                db_show_clockintr(cq->cq_running, "run", cpu);
        TAILQ_FOREACH(elm, &cq->cq_pend, cl_plink)
                db_show_clockintr(elm, "pend", cpu);
-       TAILQ_FOREACH(elm, &cq->cq_est, cl_elink) {
+       TAILQ_FOREACH(elm, &cq->cq_all, cl_alink) {
                if (!ISSET(elm->cl_flags, CLST_PENDING))
                        db_show_clockintr(elm, "idle", cpu);
        }
index 4630850..3634126 100644 (file)
@@ -1,4 +1,4 @@
-/* $OpenBSD: clockintr.h,v 1.18 2023/09/17 14:50:50 cheloha Exp $ */
+/* $OpenBSD: clockintr.h,v 1.19 2023/09/17 15:05:44 cheloha Exp $ */
 /*
  * Copyright (c) 2020-2022 Scott Cheloha <cheloha@openbsd.org>
  *
@@ -68,7 +68,7 @@ intrclock_trigger(struct intrclock *ic)
 struct clockintr_queue;
 struct clockintr {
        uint64_t cl_expiration;                         /* [m] dispatch time */
-       TAILQ_ENTRY(clockintr) cl_elink;                /* [m] cq_est glue */
+       TAILQ_ENTRY(clockintr) cl_alink;                /* [m] cq_all glue */
        TAILQ_ENTRY(clockintr) cl_plink;                /* [m] cq_pend glue */
        void *cl_arg;                                   /* [I] argument */
        void (*cl_func)(struct clockintr *, void *, void *); /* [I] callback */
@@ -94,7 +94,7 @@ struct clockintr_queue {
        struct clockintr cq_shadow;     /* [o] copy of running clockintr */
        struct mutex cq_mtx;            /* [a] per-queue mutex */
        uint64_t cq_uptime;             /* [o] cached uptime */
-       TAILQ_HEAD(, clockintr) cq_est; /* [m] established clockintr list */
+       TAILQ_HEAD(, clockintr) cq_all; /* [m] established clockintr list */
        TAILQ_HEAD(, clockintr) cq_pend;/* [m] pending clockintr list */
        struct clockintr *cq_running;   /* [m] running clockintr */
        struct clockintr *cq_hardclock; /* [o] hardclock handle */