这是我的代码:

#include <iostream>
#include <sys/time.h>
#include <string.h>

using namespace std;

int main()
{
    char* a = (char*)malloc(1024);
    int times = 10000000;
    struct timeval begin, end;
    gettimeofday(&begin, NULL);
    for(int i=0; i<times; i++){
        memset(a, 1, 1024);
    }
    gettimeofday(&end, NULL);
    cout << end.tv_sec - begin.tv_sec << "." << end.tv_usec - begin.tv_usec << endl;
    return 0;
}


当我将时间设置为1M时,输出约为0.13秒,但是当我将时间设置为10M时,输出仍约为0.13秒。是什么原因导致这种情况?是由Linux或编译器的优化引起的吗?

最佳答案

更新:禁用优化

我认为您需要使用更精确的chrono而不是time.h并禁用编译器优化:

#include <iostream>
#include <string.h>
#include <chrono>

#ifdef __GNUC__
    #ifdef __clang__
        static void test() __attribute__ ((optnone)) {
    #else
        static void __attribute__((optimize("O0"))) test() {
    #endif
#elif _MSC_VER
    #pragma optimize( "", off )
        static void test() {
#else
    #warning Unknow compiler!
        static void test() {
#endif

    char* a = (char*) malloc(1024);

    auto start = std::chrono::steady_clock::now();
    for(uint64_t i = 0; i < 1000000; i++){
        memset(a, 1, 1024);
    }
    std::cout<<"Finished in "<<std::chrono::duration<double, std::milli>(std::chrono::steady_clock::now() - start).count()<<std::endl;
}

#ifdef _MSC_VER
    #pragma optimize("", on)
#endif

int main() {
    test();

    return 0;
}


10M:完成于259.851
1M:在26.3928中完成

关于c++ - 为什么memset()的循环花费1M次和10M次的时间相同?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/34039316/

10-11 15:33