为大型数据集构建

为大型数据集构建

我有一个非常大的文件,有两列,大小约为10GB:

A  B
1  2
3  7
1  5
6  5
9  8


本质上,我想从该文件中创建一个类似于地图的结构,如下所示:

{{1 -> 2,5},{3->7}, {6->5}, {9->8}}


目标是编写一个函数,该函数计算受删除键影响的唯一值的百分比。例如,在上面的示例中,如果我删除键,则会影响值的1、2 / 4。如果同时删除1和6,则将影响2/4的值。问题在于此映射结构将使用过多的内存。有没有其他更有效的方法?我认为您需要一张地图才能跟踪重复项。您需要知道哪些键已被删除,因此您不会重复计算。这是我的初始代码:

with open("C:/Users/XX/Desktop/Train.tsv") as f:
    counter = 0
    for line in f:
      #split line into key and value
      #add key into set
      #if set does not contain key
         #create new key
         #add list for this key
         #append value to this list
      #else
         #append value to already existing list for that key


这是我在运行亚历山大的代码后收到的错误消息:不确定KeyError 293的含义

---------------------------------------------------------------------------
KeyError                                  Traceback (most recent call last)
<ipython-input-22-73145e080824> in <module>()
      7     for line in f:
      8         key, value = line.split()
----> 9         if value not in dd[key]:
     10             dd[key].append(value)
     11         counter = counter+1

KeyError: '293'

最佳答案

像这样吗

#!python3

from collections import defaultdict

AB_map = defaultdict(set)
Values = set()

with open('train.tsv') as infile:
    headers = next(infile)
    for line in infile:
        if not line.strip():
            continue
        a,b = map(int, line.split())
        AB_map[a].add(b)
        Values.add(b)

print("# of keys:", len(AB_map.keys()))
print("# of values:", len(Values))

def impact_of_deletion(keylist):
    values_impacted = set([])
    for key in keylist:
        values_impacted.update(AB_map[key])
    return values_impacted

for hyp in ((1,), (1,6)):
    print("Deleting", hyp, "would impact:", len(impact_of_deletion(hyp)))

关于python - 为大型数据集构建 map ,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/36731649/

10-13 01:14