以上代码中,#pragma omp parallel for
这一行的作用即是调用openmp的功能,根据检测到的CPU核心数目,将for (i = 0; i < 1000000000; i++)这个循环执行过程平均分配给每一个CPU核心。
去掉#pragma omp parallel for这行,则和普通的串行代码效果一致。
注意,要使用openmp功能,在编译的时候需要加上-fopenmp编译参数。
以下是两种编译搭配两种代码出现的4种结果,可以很直观地看到效果:
1、代码里含有#pragma omp parallel for,编译参数有-fopenmp
Endys-MacBook-Pro:Desktop endy$ vi test.c
Endys-MacBook-Pro:Desktop endy$ gcc-6 test.c -o test -fopenmp
Endys-MacBook-Pro:Desktop endy$ ./test
Program costs 50202611.00 clock tick.
2、代码里含有#pragma omp parallel for,编译参数没有-fopenmp
Endys-MacBook-Pro:Desktop endy$ gcc-6 test.c -o test
Endys-MacBook-Pro:Desktop endy$ ./test
Program costs 4068178.00 clock tick.
3、代码里没有#pragma omp parallel for,编译参数有-fopenmp
Endys-MacBook-Pro:Desktop endy$ vi test.c
Endys-MacBook-Pro:Desktop endy$ gcc-6 test.c -o test -fopenmp
Endys-MacBook-Pro:Desktop endy$ ./test
Program costs 4090744.00 clock tick.
4、代码里没有#pragma omp parallel for,编译参数没有-fopenmp
Endys-MacBook-Pro:Desktop endy$ vi test.c
Endys-MacBook-Pro:Desktop endy$ gcc-6 test.c -o test
Endys-MacBook-Pro:Desktop endy$ ./test
Program costs 4170093.00 clock tick.
可以看出,只有在情况1下,openmp生效,其他3种情况下,均为单核运行,2、3、4结果较为接近,而1的运行结果大约相差25%。
值得注意的是,使用多核心的case 1竟然比单核的其他3种case慢了25%,原因是在这种单一的循环运算中,并行分配CPU任务的指令比直接执行下一个循环指令的效率更低。所以并不是用并行运算就一定能够提高运算效率的,要根据实际情况来判断。
#include<stdio.h>
#include<time.h>
#include<omp.h>
int main()
{
long long i;
clock_t t1,t2;
double t3,sum=;
t1=clock(); #pragma omp parallel for
{
//#pragma omp
for(int j=;j<;j++)
{
for(i=;i<=;i++)
{
sum=sum+i/;
}
printf("%d\n",j);
}
} t2=clock();
t3 =t2-t1;
t3 = t3/CLOCKS_PER_SEC;
printf("%f s\n",t3);
return ;
}
这个代码能体现openmp 的功能
1.另外注意哪些可以并行
2.哪些不能并行
3.简单的不需要并行,可能会比串行花费更多时间
在linux g++下的命令如下:
g++ program.cpp -o program -fopenmp
或者:g++ -fopenmp grogram.cpp -o program
./program
继续上面的例子来说:
上述代码中求出的sum有误。因为sum是共享的,那么多个线程对sum的操作会引发数据竞争。
解决办法:reduction
#include<stdio.h>
#include<time.h>
#include<omp.h>
#include<vector>
using namespace std;
int main()
{
long long i;
clock_t t1,t2;
double t3,sum1=1,sum2=;
t1=clock();
vector<int>ve;
printf("ID: %d, Max threads: %d, Num threads: %d \n",omp_get_thread_num(), omp_get_max_threads(), omp_get_num_threads());
#pragma omp parallel for reduction(+: sum1,sum2)
for(int j=; j<; j++)
{
sum1+=;
sum2+=;
printf("%d %f %f\n",j,sum1,sum2);
} t2=clock();
t3 =t2-t1;
t3 = t3/CLOCKS_PER_SEC;
printf("%f s\t %f\t %f\n",t3,sum1,sum2);
return ;
}
reduction声明可以看作:
1. 保证了对sum的原则操作
2. 多个线程的执行结果通过reduction中声明的操作符进行计算,以加法操作符为例:
假设sum的初始值为10(如上述代码中),reduction(+: sum)声明的并行区域中每个线程的sum初始值为0(规定),
并行处理结束之后,会将sum的初始化值10以及每个线程所计算的sum值相加。
reduction (operator: var1, val2, ...)
其中operator以及约定变量的初始值如下:
运算符 数据类型 默认初始值
+ 整数、浮点 0
- 整数、浮点 0
* 整数、浮点 1
& 整数 所有位均为1
| 整数 0
^ 整数 0
&& 整数 1
|| 整数 0
vector 并行插入问题:
std::vector<int> vec;
#pragma omp parallel
{
std::vector<int> vec_private;
#pragma omp for nowait //fill vec_private in parallel
for(int i=; i<; i++) {
vec_private.push_back(i);
}
#pragma omp critical
vec.insert(vec.end(), vec_private.begin(), vec_private.end());
}
#pragma omp critical保证执行完子线程后,在执行主线程