我在网上找到了这个悬而未决的问题。您如何处理10G之类的大数据文件?
这应该是一个面试问题。是否有系统的方式回答此类问题?

最佳答案

如果您有兴趣,请查看HadoopMapReduce,它们是在考虑大(BIG)数据集的情况下创建的。

否则,将数据分块或流式传输是减小内存大小的好方法。

关于c++ - 您如何处理10G之类的大数据文件?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/2464675/

10-09 22:45
查看更多