sched/fair: Update scale invariance of PELT
[linux-2.6-microblaze.git] / kernel / sched / deadline.c
index fb8b7b5..6a73e41 100644 (file)
@@ -1767,7 +1767,7 @@ pick_next_task_dl(struct rq *rq, struct task_struct *prev, struct rq_flags *rf)
        deadline_queue_push_tasks(rq);
 
        if (rq->curr->sched_class != &dl_sched_class)
-               update_dl_rq_load_avg(rq_clock_task(rq), rq, 0);
+               update_dl_rq_load_avg(rq_clock_pelt(rq), rq, 0);
 
        return p;
 }
@@ -1776,7 +1776,7 @@ static void put_prev_task_dl(struct rq *rq, struct task_struct *p)
 {
        update_curr_dl(rq);
 
-       update_dl_rq_load_avg(rq_clock_task(rq), rq, 1);
+       update_dl_rq_load_avg(rq_clock_pelt(rq), rq, 1);
        if (on_dl_rq(&p->dl) && p->nr_cpus_allowed > 1)
                enqueue_pushable_dl_task(rq, p);
 }
@@ -1793,7 +1793,7 @@ static void task_tick_dl(struct rq *rq, struct task_struct *p, int queued)
 {
        update_curr_dl(rq);
 
-       update_dl_rq_load_avg(rq_clock_task(rq), rq, 1);
+       update_dl_rq_load_avg(rq_clock_pelt(rq), rq, 1);
        /*
         * Even when we have runtime, update_curr_dl() might have resulted in us
         * not being the leftmost task anymore. In that case NEED_RESCHED will