我正在使用块函数对ML的数据进行预处理,因为我的数据相当大。

数据处理后,我尝试将处理后的数据作为新列“块”添加回原始数据帧中,这给我带来了内存错误,因此我试图一次将块加载到数据帧中,但仍然得到内存错误:

MemoryError: Unable to allocate array with shape (414, 100, 32765) and data type float64


这是我的数据:

 Antibiotic  ...                                             Genome
0       isoniazid  ...  ccctgacacatcacggcgcctgaccgacgagcagaagatccagctc...
1       isoniazid  ...  gggggtgctggcggggccggcgccgataaccccaccggcatcggcg...
2       isoniazid  ...  aatcacaccccgcgcgattgctagcatcctcggacacactgcacgc...
3       isoniazid  ...  gttgttgttgccgagattcgcaatgcccaggttgttgttgccgaga...
4       isoniazid  ...  ttgaccgatgaccccggttcaggcttcaccacagtgtggaacgcgg...


这是我当前的代码:

lookup = {
  'a': 0.25,
  'g': 0.50,
  'c': 0.75,
  't': 1.00,
  'A': 0.25,
  'G': 0.50,
  'C': 0.75,
  'T': 1.00
  # z: 0.00
}


dfpath = 'C:\\Users\\CAAVR\\Desktop\\Ison.csv'
dataframe = pd.read_csv(dfpath, chunksize=100)

chunk_list = []
def preprocess(chunk):
  processed_chunk = chunk['Genome'].apply(lambda bps: pd.Series([lookup[bp] if bp in lookup else 0.0 for bp in bps.lower()])).values
  return processed_chunk;


for chunk in dataframe:
  chunk_filter = preprocess(chunk)
  chunk_list.append(chunk_filter)
  chunk_array = np.asarray(chunk_list)

for chunk in chunk_array:
  dataframe1 = dataframe.copy()
  dataframe1["Chunk"] = chunk_array


dataframe1.to_csv(r'C:\\Users\\CAAVR\\Desktop\\chunk.csv')


如果您需要更多信息,请告诉我。谢谢

最佳答案

我建议不要将内存中的所有块合并在一起,这只会使您回到内存不足的问题,而是建议将每个块分别写出。

如果以追加模式(f = open('out.csv', 'a'))打开文件,则可以多次执行dataframe.to_csv(f)。第一次编写列时,以后的调用会执行dataframe.to_csv(f, header=False),因为您之前已经编写了列标题。

关于python - Python-处理后将列表分块到数据框中,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/60176301/

10-12 16:42
查看更多