在下面的简单示例C++代码中,我在堆上分配了许多内存(〜4GB),其中包含new内存,然后再次使用delete释放它。在顶部(或其他内存监视器)中,我看到直到程序关闭,这4GB才返回到操作系统。
我(与我相关的question中的其他人一起)了解到,这是正常的,因为未使用的堆以大块的形式返回到操作系统,不需要在删除后立即使用。
我希望一旦请求更多的内存(例如,当我启动示例程序的第二个实例时),就会将已经释放的内存返回给操作系统。不幸的是,情况似乎并非如此:当在第一个实例释放内存之后运行示例的第二个实例时,两个实例的消耗都增加到8GB。我可以在多个实例中重复此操作,直到系统的所有物理内存都用完,并且开始交换并变得无响应为止。
运行示例程序的4个实例时top的输出(每个实例在删除数据后都在std::cin中等待)如下所示:
Mem: 16065M total, 15983M used, 82M free, 0M buffers
Swap: 2053M total, 1323M used, 730M free, 139M cached
那真的是通缉犯,还是我错过了什么?
我可以在不同的Linux系统上观察到这一点,但在Mac OS 10.11上却观察不到。在Mac OS上,删除后内存会立即返回到OS,这是我实际上希望发生的情况。
#include <iostream>
#include <stdlib.h>
#include <fstream>
#include <vector>
class MyObject
{
public:
MyObject(int r=1000)
: array(new float[r])
{
for (int i = 0; i<r;i++)
{
array[i] = random();
}
}
~MyObject()
{
delete[] array;
}
public:
float* array;
};
int main(int argc,char*argv[])
{
char a;
const int count=1000000;
std::cout<<"Start after input"<<std::endl;
std::cin >> a;
// /proc/PROC_ID/status at this point:
// VmSize: 11468 kB
// VmLck: 0 kB
// VmHWM: 960 kB
// VmRSS: 960 kB
// VmData: 144 kB
{
std::vector<MyObject*> vec(count);
for(int i=0; i<count; i++)
{
vec[i] = new MyObject;
}
std::cout<<"Release after input"<<std::endl;
std::cin >> a;
// VmSize: 3972420 kB
// VmLck: 0 kB
// VmHWM: 3962016 kB
// VmRSS: 3962016 kB
// VmData: 3961096 kB
for (int i=0; i<count; i++)
{
delete vec[i];
vec[i]=NULL;
}
}
std::cout<<"Shutdown after input"<<std::endl;
std::cin >> a;
// VmSize: 3964604 kB
// VmLck: 0 kB
// VmHWM: 3962016 kB
// VmRSS: 3954212 kB
// VmData: 3953280 kB
return 0;
}
最佳答案
平台的内存分配器无法按照您希望的方式处理这种特殊情况。最有可能的是,它仅将足够大的分配返回给操作系统,而这些分配太小。如果您有不同寻常的要求,则应选择一个已知满足这些要求的分配器。具有大量同时释放的非常小的分配是一个不寻常的应用程序。
它可能像包装分配器那样简单,该分配器分配比请求大得多的块并将其拆分。这应该使块足够大,以使平台的分配器可以一对一地映射它们,以解决操作系统请求的空间。
关于c++ - 为什么通过重复分配和取消分配内存来耗尽系统的所有内存?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/34989511/