问题描述
所以我试图使用 delta Lake write df_concat.write.format("delta").mode("overwrite").save("file") 它给了我这个错误
:
So i was trying to use delta lake write df_concat.write.format("delta").mode("overwrite").save("file") it gives me this error
:
java.lang.NoClassDefFoundError: org/apache/spark/sql/connector/catalog/TableProvider和 deltalake 文档说更新到 spark3 所以只是想确认我们是否可以在 spark2.xx 上运行 deltalake
java.lang.NoClassDefFoundError: org/apache/spark/sql/connector/catalog/TableProviderand delta lake doc says update to spark3 so just want to confirm if we can run deltalake on spark2.xx
推荐答案
您可以使用 Delta 版本 0.6.1 - 支持 Spark 2.x 的最新版本.你至少需要有 Spark 2.4.2 才能运行它.只需使用 --packages io.delta:delta-core_2.11:0.6.1
运行您的代码,或将其链接到应用程序
You can use Delta release 0.6.1 - the latest that supported Spark 2.x. You need to have at least Spark 2.4.2 to run it. Just run your code with --packages io.delta:delta-core_2.11:0.6.1
, or link it to the application
这篇关于spark2.xx 是否支持 delta 湖的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!