我有两种不同的 docker 堆栈,一种用于 HBase,一种用于 Spark。我需要将 HBase jar 放入 Spark 路径。我可以做到这一点而无需修改 Spark 容器的一种方法是使用卷。在我的 HBase docker-compose.yml 中,我定义了一个指向 HBase 主目录的卷(它恰好是/opt/hbase-1.2.6)。是否可以与 Spark 堆栈共享该体积?
现在,由于服务名称不同(2 个不同的 docker-compose 文件),卷被预先添加(hbase_hbasehome 和 spark_hbasehome)导致共享失败。
最佳答案
您可以使用 external
卷。参见 here 官方文档:
举个例子:
version: '2'
services:
db:
image: postgres
volumes:
- data:/var/lib/postgresql/data
volumes:
data:
external: true
volumes:
data:
external:
name: actual-name-of-volume
关于apache-spark - 在 docker 堆栈之间共享卷?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/50476275/