题目描述:
某多处理器多道批处理系统一次允许将所有作业调入内存,且能并行执行,其并行数等于处理机个数。该系统采用SJF的调度方式(最短作业优先,系统在调度时,总是优先调度执行处理时间最短的作业)。现给定处理器个数m,作业数n,每个作业的处理时间分别为t1,t2 ... tn。
当 n > m时,首先处理时间短的 m 个作业进入处理器处理,其他的进入等待,当某个作业处理完成时,依次从等待队列中取出处理时间最短的作业进入处理。
求系统处理完所有作业的耗时为多少?
注:不考虑作业切换的消耗。
输入描述:
输入2行,第一行为2个整数(采用空格分隔),分别表示处理器个数m和作业数n;第二行输入n个整数(采用空格分隔),表示每个作业的处理时长t1,t2...tn。0<m,n<100,0<t1,t2...tn<100。
输出描述:
输出处理总时长示例:
输入
3 5
8 4 3 1 10
输出
13
思路:
按照题目所说:依次从等待队列中取出处理时间最短的作业进入处理。如此,只需将整个队列划分成n(任务数) / m (处理器数)个列数为 m的数组就可以了,只关心最后一个最大时长的任务结束时间,
如此如果 n / m 可以整除,那么只需要把最后一列累加就可得到最大数字,否则获取余数个数,将余数的那一列累加得到最大工作时间:
1 | 3 | 4 |
8 | 10 |
以示例为例,则一眼看出,最大时间是13,我们看一个比示例稍微复杂一些的:
1 | 3 | 4 | 8 |
10 | 13 | 16 | 19 |
21 | 23 | 25 | 27 |
30 | 31 |
如此我们可以看出,最大时间其实是第二列,他们的和为 70
有了上面的思路,代码就非常容易写了:
#include <iostream>
#include <algorithm>
#include <vector>
using namespace std;
int main()
{
int m, n;
std::cin >> m >> n;
std::vector<int> v(n);
for (int i = 0; i < n; ++i) {
std::cin >> v[i];
}
std::sort(v.begin(), v.end());
int rows = (n % m) == 0 ? (n / m) : (n / m) + 1; // 获取任务行数
int remainder = (n % m) == 0 ? m - 1 : (n % m) - 1; // 获取最后执行完任务的一列
int max_time = 0;
for (int i = 0; i < rows; ++i) {
max_time += v[i * m + remainder];
}
std::cout << max_time << std::endl;
return 0;
}