对于该算法的复杂性。一个直接的方法是测量的一定量的算法级数据的执行时间的感知。
随着C语言提供qsort对于示例。随着100一万次的数据,以测试其计算量。感知O(nlg(n))时间成本:
C码如下面:
#include <stdio.h>
#include <stdlib.h>
#include <time.h> #define N 1000000 //int (*Comp)(const void *,const void *)
int compare(const void *p1, const void *p2) {
return *(float*)p1 > *(float*)p2;
} int main()
{
float x[N];
srand( time(NULL) );
clock_t t1 = clock();
for(int j = 0; j < 10; j++) {
for(long i = 0; i < N; i++)
x[i] = (float)rand()/RAND_MAX;
qsort(x, N, sizeof(float), compare);
}
for(int i = 0; i < 10; i++)
printf("%f ", x[i]);
printf("\n");
clock_t t2 = clock();
printf("浮点数排序算法用时:%f 秒\n", (double)(t2 - t1)/ CLOCKS_PER_SEC);
return 0;
}
在笔记本上用gcc qsort_test.c编译和执行。10次100万数据随机生成和排序用时结果为:
~/tmp$ ./a.out
0.000000 0.000001 0.000001 0.000002 0.000002 0.000004 0.000004 0.000005 0.000006 0.000006
当排序浮点算法:2.236941 第二
版权声明:本文博主原创文章。博客,未经同意不得转载。