我正在尝试使用Databricks实用程序将文件复制到基于current_date和扩展名.csv的文件夹-dbutils

我创建了以下内容:

import datetime
now1 = datetime.datetime.now()
now = now1.strftime("%Y-%m-%d")
from datetime import datetime
today = datetime.today().date()


然后我尝试了以下

dbutils.fs.cp('adl://mylake.azuredatalakestore.net/testfolder/*{today}.csv','adl://mylake.azuredatalakestore.net/testfolder/RAW/')

dbutils.fs.cp('adl://mylake.azuredatalakestore.net/testfolder/*{now}.csv','adl://mylake.azuredatalakestore.net/testfolder/RAW/'


但是,我不断收到无效的语法错误

有什么想法吗?

最佳答案

dbutils.fs.cp复制单个文件和目录,并且不执行通配符扩展,请参见dbutils.fs.help(“ cp”)以获得参考。您可以尝试使用dbutils.fs.ls列出源目录的内容,在python中过滤结果,然后一一复制匹配的文件。

08-07 11:39