本文介绍了如何使用Spark Scala删除/重命名Azure Data Lake和Blob存储中的文件/文件夹?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我正在使用Data Bricks Scala笔记本,处理数据湖中的文件,然后再次存储在数据湖和Blob存储中.我看到一些不需要的日志文件与数据文件一起存储.因此,我需要一个基于Scala的解决方案来重命名/删除文件/文件夹

I am using Data bricks Scala notebook , processing the files from data lake and storing again in data lake and blob store. I see some unwanted log files are stored along with data file. Hence I need a Scala based solution to rename/delete the files/folder in Azure data lake and blob store which can be executed within Scala notebook.

推荐答案

  1. 重命名文件

如果有帮助,请告诉我.

Please let me know, if that helps.


这篇关于如何使用Spark Scala删除/重命名Azure Data Lake和Blob存储中的文件/文件夹?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!

08-23 20:42