我想将新列tidy_tweet添加到实现remove_pattern函数的现有.csv文件中

def remove_pattern(input_txt, pattern):
    r = re.findall(pattern, input_txt)
    for i in r:
        input_txt = re.sub(i, '', input_txt)
    return input_txt


我写了这些代码

data  = pd.read_csv(filepath_or_buffer='stockerbot-export.csv', error_bad_lines=False)
data['tidy_tweet'] = np.vectorize(remove_pattern)(data['text'], "@[\w]*")


我收到以下错误

MemoryError                               Traceback (most recent call last)
<ipython-input-15-d6e7e950d5b9> in <module>()
----> 1 data['tidy_tweet'] = np.vectorize(remove_pattern)(data['text'], "@[\w]*")

~\Anaconda3\lib\site-packages\numpy\lib\function_base.py in __call__(self, *args, **kwargs)
   1970             vargs.extend([kwargs[_n] for _n in names])
   1971
-> 1972         return self._vectorize_call(func=func, args=vargs)
   1973
   1974     def _get_ufunc_and_otypes(self, func, args):

~\Anaconda3\lib\site-packages\numpy\lib\function_base.py in _vectorize_call(self, func, args)
   2049
   2050             if ufunc.nout == 1:
-> 2051                 res = array(outputs, copy=False, subok=True, dtype=otypes[0])
   2052             else:
   2053                 res = tuple([array(x, copy=False, subok=True, dtype=t)

MemoryError:


我无法理解该错误。需要帮忙。

最佳答案

该错误是不言自明的,您在处理大量数据并对其进行循环处理时会耗尽内存。有一个更简单的解决方案尝试一下。

data['tidy_tweet'] = data['text'].str.replace('@[\w]*', '',regex=True)


如果您使用的熊猫版本较旧,即regex=True,请删除0.23.0

documentation

例:

python - Python替换CSV文件中的字符串-LMLPHP

10-01 18:19