我正在尝试将一个大文件(电影)分块移动到 redis 缓存中。
我在 Windows 机器上使用 stackexchange.redis。
redis 配置为执行 allkey-lru 并每秒使用 append。 Maxmemory 配置为 100mb。
ConnectionMultiplexer redis2 = ConnectionMultiplexer.Connect("localhost:6380, syncTimeout=100000");
IDatabase db2 = redis2.GetDatabase();
const int chunkSize = 4096;
string fileName = "D:\\movie.mp4";
using (var file = File.OpenRead(fileName))
{
int bytesRead;
int inCounter = 1;
var buffer = new byte[chunkSize];
while ((bytesRead = file.Read(buffer, 0, buffer.Length)) > 0)
{
db2.StringSet(file.Name + inCounter, buffer);
inCounter++;
}
}
当块大小为 chunkSize = 4096 时,一切正常。
但是,当我将块大小更改为 65536 时,服务器崩溃并显示以下日志:
[2816] 20 Jul 23:06:42.300 * Starting automatic rewriting of AOF on 6766592700% growth
[2816] 20 Jul 23:06:42.331 * Background append only file rewriting started by pid 3672
[3672] 20 Jul 23:06:42.331 # Write error writing append only file on disk: Invalid argument
[3672] 20 Jul 23:06:42.331 # rewriteAppendOnlyFile failed in qfork: Invalid argument
[2816] 20 Jul 23:06:42.440 # fork operation complete
[2816] 20 Jul 23:06:42.440 # Background AOF rewrite terminated with error
[2816] 20 Jul 23:06:42.549 * Starting automatic rewriting of AOF on 7232582200% growth
[2816] 20 Jul 23:06:42.581 * Background append only file rewriting started by pid 1440
[2816] 20 Jul 23:06:42.581 # Out Of Memory allocating 10485768 bytes!
[2816] 20 Jul 23:06:42.581 #
=== REDIS BUG REPORT START: Cut & paste starting from here ===
[2816] 20 Jul 23:06:42.581 # ------------------------------------------------
[2816] 20 Jul 23:06:42.581 # !!! Software Failure. Press left mouse button to continue
[2816] 20 Jul 23:06:42.581 # Guru Meditation: "Redis aborting for OUT OF MEMORY" #..\src\redis.c:3467
[2816] 20 Jul 23:06:42.581 # ------------------------------------------------
[1440] 20 Jul 23:06:42.581 # Write error writing append only file on disk: Invalid argument
[1440] 20 Jul 23:06:42.581 # rewriteAppendOnlyFile failed in qfork: Invalid argument
有任何想法吗?
最佳答案
原来是一个非常有趣和令人惊讶的问题!
造成这种情况的真正原因是他们使用的分配器 ( dlmalloc
) 中的内存碎片。
希望 MSFT 能让这一切变得更好,但我预计这需要一些时间。
在此期间,解决方法。
解决此问题的正确方法(目前)
配置 maxmemory
和 maxheap
参数。使 maxheap
比 maxmemory
大得多。
因此,如果您想要 maxmemory=100MB
,则将 maxheap
放大 5 倍甚至 10 倍,例如 maxheap=500MB
甚至 maxheap=1000MB
。
我不认为有一个好的经验法则 maxheap
需要多大,这就是为什么它是一个如此棘手的问题。
这样做的效果:Redis 仍然会尽量保持 100MB
下的内存使用量,但实际使用的物理内存可能
大于那个,可能达到 maxheap
值。具体多少取决于碎片化程度。希望
在现实生活中,这将保持在合理的水平。
我已经记录了团队的问题。 https://github.com/MSOpenTech/redis/issues/274
编辑 :我已经根据新知识完全修改了这个答案。在编辑历史中查看以前的版本。
关于c# - Redis 因内存不足而中止,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/31525903/