方案:我需要数学处理超过1.5GB的文本和csv文件。我尝试使用SQL Server Express,但是即使批量导入也要花费很长时间来加载信息,理想情况下,我需要将整个数据集存储在内存中以减少硬盘IO。

有超过1.2亿条记录,但是即使我尝试将信息过滤到仅一列(内存中),我的C#控制台应用程序也消耗约3.5GB的内存来处理125MB(实际上为700MB的文本)文本。

即使将所有引用都设置为null并使用using关键字封装IDisposables之后,GC似乎也没有收集对字符串和字符串数组的引用。

我认为罪魁祸首是String.Split()方法,该方法为每个逗号分隔的值创建一个新字符串。

您可能会建议我什至不应该将不需要的*列读入字符串数组,但这没有捕获重点:如何将整个数据集放置在内存中,以便可以在C#中并行处理它?

我可以使用复杂的调度算法优化统计算法并协调任务,但这是我在遇到内存问题之前希望做的事情,而不是因为这个。

我已经包含了一个完整的控制台应用程序,该应用程序可以模拟我的环境,并且应该有助于重现该问题。

任何帮助表示赞赏。提前致谢。

using System;
using System.Collections.Generic;
using System.Text;
using System.IO;

namespace InMemProcessingLeak
{
    class Program
    {
        static void Main(string[] args)
        {
            //Setup Test Environment. Uncomment Once
            //15000-20000 files would be more realistic
            //InMemoryProcessingLeak.GenerateTestDirectoryFilesAndColumns(3000, 3);
            //GC
            GC.Collect();
            //Demostrate Large Object Memory Allocation Problem (LOMAP)
            InMemoryProcessingLeak.SelectColumnFromAllFiles(3000, 2);
        }
    }

    class InMemoryProcessingLeak
    {
        public static List<string> SelectColumnFromAllFiles(int filesToSelect, int column)
        {
            List<string> allItems = new List<string>();
            int fileCount = filesToSelect;
            long fileSize, totalReadSize = 0;

            for (int i = 1; i <= fileCount; i++)
            {
                allItems.AddRange(SelectColumn(i, column, out fileSize));
                totalReadSize += fileSize;
                Console.Clear();
                Console.Out.WriteLine("Reading file {0:00000} of {1}", i, fileCount);
                Console.Out.WriteLine("Memory = {0}MB", GC.GetTotalMemory(false) / 1048576);
                Console.Out.WriteLine("Total Read = {0}MB", totalReadSize / 1048576);
            }
            Console.ReadLine();
            return allItems;

        }

        //reads a csv file and returns the values for a selected column
        private static List<string> SelectColumn(int fileNumber, int column, out long fileSize)
        {
            string fileIn;
            FileInfo file = new FileInfo(string.Format(@"MemLeakTestFiles/File{0:00000}.txt", fileNumber));
            fileSize = file.Length;
            using (System.IO.FileStream fs = file.Open(FileMode.Open, FileAccess.Read, FileShare.Read))
            {
                using (System.IO.StreamReader sr = new System.IO.StreamReader(fs))
                {
                    fileIn = sr.ReadToEnd();
                }
            }

            string[] lineDelimiter = { "\n" };
            string[] allLines = fileIn.Split(lineDelimiter, StringSplitOptions.None);

            List<string> processedColumn = new List<string>();

            string current;
            for (int i = 0; i < allLines.Length - 1; i++)
            {
                current = GetColumnFromProcessedRow(allLines[i], column);
                processedColumn.Add(current);
            }

            for (int i = 0; i < lineDelimiter.Length; i++) //GC
            {
                lineDelimiter[i] = null;
            }
            lineDelimiter = null;

            for (int i = 0; i < allLines.Length; i++) //GC
            {
                allLines[i] = null;
            }
            allLines = null;
            current = null;

            return processedColumn;
        }

        //returns a row value from the selected comma separated string and column position
        private static string GetColumnFromProcessedRow(string line, int columnPosition)
        {
            string[] entireRow = line.Split(",".ToCharArray());
            string currentColumn = entireRow[columnPosition];
            //GC
            for (int i = 0; i < entireRow.Length; i++)
            {
                entireRow[i] = null;
            }
            entireRow = null;
            return currentColumn;
        }

        #region Generators
        public static void GenerateTestDirectoryFilesAndColumns(int filesToGenerate, int columnsToGenerate)
        {
            DirectoryInfo dirInfo = new DirectoryInfo("MemLeakTestFiles");
            if (!dirInfo.Exists)
            {
                dirInfo.Create();
            }
            Random seed = new Random();

            string[] columns = new string[columnsToGenerate];

            StringBuilder sb = new StringBuilder();
            for (int i = 1; i <= filesToGenerate; i++)
            {
                int rows = seed.Next(10, 8000);
                for (int j = 0; j < rows; j++)
                {
                    sb.Append(GenerateRow(seed, columnsToGenerate));
                }
                using (TextWriter tw = new StreamWriter(String.Format(@"{0}/File{1:00000}.txt", dirInfo, i)))
                {
                    tw.Write(sb.ToString());
                    tw.Flush();
                }
                sb.Remove(0, sb.Length);
                Console.Clear();
                Console.Out.WriteLine("Generating file {0:00000} of {1}", i, filesToGenerate);
            }
        }

        private static string GenerateString(Random seed)
        {
            StringBuilder sb = new StringBuilder();
            int characters = seed.Next(4, 12);
            for (int i = 0; i < characters; i++)
            {
                sb.Append(Convert.ToChar(Convert.ToInt32(Math.Floor(26 * seed.NextDouble() + 65))));
            }
            return sb.ToString();
        }

        private static string GenerateRow(Random seed, int columnsToGenerate)
        {
            StringBuilder sb = new StringBuilder();

            sb.Append(seed.Next());
            for (int i = 0; i < columnsToGenerate - 1; i++)
            {
                sb.Append(",");
                sb.Append(GenerateString(seed));
            }
            sb.Append("\n");

            return sb.ToString();
        }
        #endregion
    }
}

*在程序的整个生命周期中,将需要其他这些列并对其进行顺序和随机访问,因此,每次从磁盘进行读取都会带来极大的负担。

**环境说明:4GB DDR2 SDRAM 800,Core 2 Duo 2.5Ghz,.NET Runtime 3.5 SP1,Vista 64。

最佳答案

是的,String.Split为每个“片段”创建一个新的String对象-这就是要这样做的。

现在,请记住,.NET中的字符串是Unicode(实际上是UTF-16),并且由于对象开销,以字节为单位的字符串成本大约为20 + 2*n,其中n是字符数。

这意味着,如果您有很多小字符串,那么与所涉及的文本数据大小相比,它将需要大量的内存。例如,将80个字符的行拆分为10 x 8个字符串将占用文件中的80个字节,但是内存中的10 *(20 + 2 * 8)= 360个字节-4.5倍的消耗!

我怀疑这是一个GC问题-我建议您删除多余的语句,在不需要时将变量设置为null,这只是一个数据过多的问题。

我建议您逐行读取文件(使用TextReader.ReadLine()而不是TextReader.ReadToEnd())。如果不需要,显然将整个文件存储在内存中是浪费的。

09-27 21:32