我正在尝试将一个大文件(电影)分块移动到 redis 缓存中。
我在 Windows 机器上使用 stackexchange.redis。
redis 配置为执行 allkey-lru 并每秒使用 append。 Maxmemory 配置为 100mb。

ConnectionMultiplexer redis2 = ConnectionMultiplexer.Connect("localhost:6380, syncTimeout=100000");
IDatabase db2 = redis2.GetDatabase();

const int chunkSize = 4096;
string fileName = "D:\\movie.mp4";
using (var file = File.OpenRead(fileName))
{
    int bytesRead;
    int inCounter = 1;
    var buffer = new byte[chunkSize];
    while ((bytesRead = file.Read(buffer, 0, buffer.Length)) > 0)
    {
        db2.StringSet(file.Name + inCounter, buffer);
        inCounter++;
    }
}

当块大小为 chunkSize = 4096 时,一切正常。
但是,当我将块大小更改为 65536 时,服务器崩溃并显示以下日志:
[2816] 20 Jul 23:06:42.300 * Starting automatic rewriting of AOF on 6766592700% growth
[2816] 20 Jul 23:06:42.331 * Background append only file rewriting started by pid 3672
[3672] 20 Jul 23:06:42.331 # Write error writing append only file on disk: Invalid argument
[3672] 20 Jul 23:06:42.331 # rewriteAppendOnlyFile failed in qfork: Invalid argument
[2816] 20 Jul 23:06:42.440 # fork operation complete
[2816] 20 Jul 23:06:42.440 # Background AOF rewrite terminated with error
[2816] 20 Jul 23:06:42.549 * Starting automatic rewriting of AOF on 7232582200% growth
[2816] 20 Jul 23:06:42.581 * Background append only file rewriting started by pid 1440
[2816] 20 Jul 23:06:42.581 # Out Of Memory allocating 10485768 bytes!
[2816] 20 Jul 23:06:42.581 #

=== REDIS BUG REPORT START: Cut & paste starting from here ===
[2816] 20 Jul 23:06:42.581 # ------------------------------------------------
[2816] 20 Jul 23:06:42.581 # !!! Software Failure. Press left mouse button to continue
[2816] 20 Jul 23:06:42.581 # Guru Meditation: "Redis aborting for OUT OF MEMORY" #..\src\redis.c:3467
[2816] 20 Jul 23:06:42.581 # ------------------------------------------------
[1440] 20 Jul 23:06:42.581 # Write error writing append only file on disk: Invalid argument
[1440] 20 Jul 23:06:42.581 # rewriteAppendOnlyFile failed in qfork: Invalid argument

有任何想法吗?

最佳答案

原来是一个非常有趣和令人惊讶的问题!

造成这种情况的真正原因是他们使用的分配器 ( dlmalloc ) 中的内存碎片。
希望 MSFT 能让这一切变得更好,但我预计这需要一些时间。

在此期间,解决方法。

解决此问题的正确方法(目前)

配置 maxmemorymaxheap 参数。使 maxheapmaxmemory 大得多。

因此,如果您想要 maxmemory=100MB ,则将 maxheap 放大 5 倍甚至 10 倍,例如 maxheap=500MB 甚至 maxheap=1000MB
我不认为有一个好的经验法则 maxheap 需要多大,这就是为什么它是一个如此棘手的问题。

这样做的效果:Redis 仍然会尽量保持 100MB 下的内存使用量,但实际使用的物理内存可能
大于那个,可能达到 maxheap 值。具体多少取决于碎片化程度。希望
在现实生活中,这将保持在合理的水平。

我已经记录了团队的问题。 https://github.com/MSOpenTech/redis/issues/274

编辑 :我已经根据新知识完全修改了这个答案。在编辑历史中查看以前的版本。

关于c# - Redis 因内存不足而中止,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/31525903/

10-10 11:58