Linux下算法效率的分析和测量

首先用两种方法计算1-1/x+1/x*x……然后比较其所用时间。本文涉及Linux下测量毫秒级时间精度的问题。 方法1: //Write in Ubuntu11.04 #include<stdio.h> #include<time.h> #include<sys/time.h> int main() { struct timeval t_start,t_end; double x,sum=1,su
相关文章
相关标签/搜索