本文介绍了Sparkr将DF作为csv/txt文件写入的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
我正在用纱线模式研究sparkR.
Hi I'm working on sparkR in yarn mode.
我需要将sparkr df写入csv/txt文件.
I need to write a sparkr df to a csv/txt file.
我看到有write.df
,但是它写了实木复合地板文件.
I saw that there is write.df
but it writes parquet files.
我试图做这件事
RdataFrame<-collect(SparkRDF)
write.table(RdataFrame, ..)
但是我在contextCleaner上收到了很多警告和一些错误.
But I got many WARN and some ERROR on contextCleaner.
有什么办法吗?
推荐答案
Spark 2.0 +
您可以使用write.text
功能:
write.text(df, path)
带有内置SparkR csv
编写器的
或write.df
:
or write.df
with built-in SparkR csv
writer:
write.df(df, path, source="csv")
火花1.x
您可以使用 spark-csv
软件包:
You can use spark-csv
package:
write.df(SparkRDF, "foo.csv", "com.databricks.spark.csv", ...)
例如可以使用SparkR
/spark-submit
的packages
参数添加它:
It can be added for example with packages
argument to SparkR
/ spark-submit
:
sparkR --packages com.databricks:spark-csv_2.10:1.3.0 # For Scala 2.10
sparkR --packages com.databricks:spark-csv_2.11:1.3.0 # For Scala 2.11
有关其他选项,请参见官方文档
For other options see the official documentation
这篇关于Sparkr将DF作为csv/txt文件写入的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!