spark-submit
似乎需要与远程Spark群集进行双向通信才能运行作业。
这很容易在机器之间进行configuration(10.xxx到10.xxx和后面),但是当Docker添加一个额外的networking层(172.xxx到10.xxx到10.xxx,然后回到172.xxx到10 .xxx以某种方式)。
Spark为其客户端的SPARK_LOCAL_IP
和SPARK_LOCAL_HOSTNAME
configuration参数增加了一层额外的复杂性。
如何configurationDockernetworking来允许这个?