利用docker 部署 spark项目的端口问题

利用Docker  安装项目:

local模式要设置sparklocal.spark.driver.host

yarn模式中只设置sparklocal.spark.driver.host和可以启动,但是无法执行任何语句,需要再设置

sparkyarn.spark.driver.bindAddress

和 blockmanager

即可,在spark启动时指定对应host和bindaddress,docker指定访问设定的host和bindAddress

和 blockmanager即可

注意:sparkyarn.spark.driver.bindAddress 是spark2.1.0才有的参数,之前是没有的。所以说,在2.1.0之前,spark与docker结合,以上办法行不通。




来源:春哥技术博客,欢迎分享,转载请注明出处。(欢迎加春哥团队客服微信号:taike668)

本文地址:https://www.cgtblog.com/kafa/1867.html
上一篇:Oracle 与spark-local 模式的性能对比      下一篇:小型电商服务器平台搭建(一)