我有两种不同的 docker 堆栈,一种用于 HBase,一种用于 Spark。我需要将 HBase jar 放入 Spark 路径。我可以做到这一点而无需修改 Spark 容器的一种方法是使用卷。在我的 HBase docker-compose.yml 中,我定义了一个指向 HBase 主目录的卷(它恰好是/opt/hbase-1.2.6)。是否可以与 Spark 堆栈共享该体积?

现在,由于服务名称不同(2 个不同的 docker-compose 文件),卷被预先添加(hbase_hbasehome 和 spark_hbasehome)导致共享失败。

最佳答案

您可以使用 external 卷。参见 here 官方文档:



举个例子:

version: '2'

services:
  db:
    image: postgres
    volumes:
      - data:/var/lib/postgresql/data

volumes:
  data:
    external: true


volumes:
  data:
    external:
      name: actual-name-of-volume

关于apache-spark - 在 docker 堆栈之间共享卷?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/50476275/

10-16 05:36