这是我的代码:
#include <iostream>
#include <sys/time.h>
#include <string.h>
using namespace std;
int main()
{
char* a = (char*)malloc(1024);
int times = 10000000;
struct timeval begin, end;
gettimeofday(&begin, NULL);
for(int i=0; i<times; i++){
memset(a, 1, 1024);
}
gettimeofday(&end, NULL);
cout << end.tv_sec - begin.tv_sec << "." << end.tv_usec - begin.tv_usec << endl;
return 0;
}
当我将时间设置为1M时,输出约为0.13秒,但是当我将时间设置为10M时,输出仍约为0.13秒。是什么原因导致这种情况?是由Linux或编译器的优化引起的吗?
最佳答案
更新:禁用优化
我认为您需要使用更精确的chrono
而不是time.h
并禁用编译器优化:
#include <iostream>
#include <string.h>
#include <chrono>
#ifdef __GNUC__
#ifdef __clang__
static void test() __attribute__ ((optnone)) {
#else
static void __attribute__((optimize("O0"))) test() {
#endif
#elif _MSC_VER
#pragma optimize( "", off )
static void test() {
#else
#warning Unknow compiler!
static void test() {
#endif
char* a = (char*) malloc(1024);
auto start = std::chrono::steady_clock::now();
for(uint64_t i = 0; i < 1000000; i++){
memset(a, 1, 1024);
}
std::cout<<"Finished in "<<std::chrono::duration<double, std::milli>(std::chrono::steady_clock::now() - start).count()<<std::endl;
}
#ifdef _MSC_VER
#pragma optimize("", on)
#endif
int main() {
test();
return 0;
}
10M:完成于259.851
1M:在26.3928中完成
关于c++ - 为什么memset()的循环花费1M次和10M次的时间相同?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/34039316/