基于docker-compose的spark多woker测试环境搭建

使用 https://github.com/bitnami/bitnami-docker-spark

$ git clone https://github.com/bitnami/bitnami-docker-spark
$ cd bitnami-docker-spark
$ docker-compose up --scale spark-worker=3 # 3个woker

但是我在挂载好python代码路径然后执行的时候,出现了错误

ModuleNotFoundError: No module named 'py4j'

经查阅,需要设置PYTHONPATH环境变量的值, 在 docker-compose.ymlenvironment 下设置

- PYTHONPATH=/opt/bitnami/spark/python:/opt/bitnami/spark/python/lib/py4j-0.10.9.3-src.zip

即可

相关文章

Docker是什么Docker是 Docker.Inc 公司开源的一个基于 LXC技...
本文为原创,原始地址为:http://www.cnblogs.com/fengzheng...
镜像操作列出镜像:$ sudo docker imagesREPOSITORY TAG IMA...
本文原创,原文地址为:http://www.cnblogs.com/fengzheng/p...
在 Docker 中,如果你修改了一个容器的内容并希望将这些更改...
在Docker中,--privileged 参数给予容器内的进程几乎相同的权...