本文介绍了spark2.xx 是否支持 delta 湖的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

所以我试图使用 delta Lake write df_concat.write.format("delta").mode("overwrite").save("file") 它给了我这个错误 :

So i was trying to use delta lake write df_concat.write.format("delta").mode("overwrite").save("file") it gives me this error :

java.lang.NoClassDefFoundError: org/apache/spark/sql/connector/catalog/TableProvider和 deltalake 文档说更新到 spark3 所以只是想确认我们是否可以在 spark2.xx 上运行 deltalake

java.lang.NoClassDefFoundError: org/apache/spark/sql/connector/catalog/TableProviderand delta lake doc says update to spark3 so just want to confirm if we can run deltalake on spark2.xx

推荐答案

您可以使用 Delta 版本 0.6.1 - 支持 Spark 2.x 的最新版本.你至少需要有 Spark 2.4.2 才能运行它.只需使用 --packages io.delta:delta-core_2.11:0.6.1 运行您的代码,或将其链接到应用程序

You can use Delta release 0.6.1 - the latest that supported Spark 2.x. You need to have at least Spark 2.4.2 to run it. Just run your code with --packages io.delta:delta-core_2.11:0.6.1, or link it to the application

这篇关于spark2.xx 是否支持 delta 湖的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!

07-25 09:22