from HNOI2003
【题目描述:】
写一个程序来模拟操作系统的进程调度。假设该系统只有一个CPU,每一个进程的到达时间,执行时间和运行优先级都是已知的。其中运行优先级用自然数表示,数字越大,则优先级越高。
如果一个进程到达的时候CPU是空闲的,则它会一直占用CPU直到该进程结束。除非在这个过程中,有一个比它优先级高的进程要运行。在这种情况下,这个新的(优先级更高的)进程会占用CPU,而老的只有等待。
如果一个进程到达时,CPU正在处理一个比它优先级高或优先级相同的进程,则这个(新到达的)进程必须等待。
一旦CPU空闲,如果此时有进程在等待,则选择优先级最高的先运行。如果有多个优先级最高的进程,则选择到达时间最早的。
【输入格式:】
输入包含若干行,每一行有四个自然数(均不超过10^8),分别是进程号,到达时间,执行时间和优先级。不同进程有不同的编号,不会有两个相同优先级的进程同时到达。输入数据已经按到达时间从小到大排序。输入数据保证在任何时候,等待队列中的进程不超过15000个。
【输出格式:】
按照进程结束的时间输出每个进程的进程号和结束时间。
输入样例#: 输出样例#:
输入输出样例
【算法分析:】
对于一个新加入的进程a,将它与正在进行的进程b比较
- 如果现在的时间加上完成b所要花费的时间比a到达的时间早,先完成b再处理a并输出b
- 如果a到达的时候b还在运行,且a的优先级大于b的优先级,立刻停止b的运行,并开始运行a
这时b已经运行了一段时间,所以进程b花费的时间会减少
开一个以优先级为第一关键字、到达时间为第二关键字的大根堆(类型为结构体类型:Process)
将每一个被强制退出的进程(例如2.情况下的b)push到这个堆里,并且每一次都取出堆顶元素与新来的进程a比较
重复上面的过程直至没有新来的进程.
这时堆里的元素已经按照规则排好序,再每次取出堆顶元素输出即可
【代码:】
//[HNOI2003]操作系统
#include<iostream>
#include<cstdio>
#include<algorithm>
#include<queue>
using namespace std; const int MAXN = + ; struct Process {
int num, arrive, cost, value;
bool operator < (const Process &o) const {
if(value != o.value) return value < o.value;
return arrive > o.arrive;
}
}a[MAXN]; int time;
priority_queue<Process> q; int main() {
int x = ;
while(scanf("%d%d%d%d", &a[x].num, &a[x].arrive, &a[x].cost, &a[x].value) == ) {
++x;
}
x--;
for(int i = ; i <= x; i++) {
while(!q.empty()) {
Process ext = q.top();
q.pop();
if(time + ext.cost <= a[i].arrive) {
time += ext.cost;
printf("%d %d\n", ext.num, time);
}
else {
ext.cost -= (a[i].arrive - time);
time = a[i].arrive;
q.push(ext);
break;
}
}
q.push(a[i]);
time = a[i].arrive;
}
while(!q.empty()) {
Process ext = q.top();
q.pop();
time += ext.cost;
printf("%d %d\n", ext.num, time);
}
}