• docker容器与大数据组件的冲突点


    1.容器里面安装spark,外面的程序(安装spark主机的容器)会连接不上集群。理由:这个组件用的akka,连接上集群,会提示:

    akka.ErrorMonitor: dropping message [class akka.actor.ActorSelectionMessage] for non-local recipient [Actor[akka.tcp://sparkMaster@localhost:50071/]] arriving at [akka.tcp://sparkMaster@localhost:50071] inbound addresses are [akka.tcp://sparkMaster@funslave0:7077]
    akka.event.Logging$Error$NoCause$

    akka会检测连接的url,像这种会连接失败,就是因为外面程序设置的master是localhost:50071,不符合funslave0:7077这个格式

    碰到这种情况,只有删除容器重来.docker系统不能在运行中途更改映射端口。

  • 相关阅读:
    完全背包和多重背包的混合 F
    多重背包转化成完全背包 E
    I
    D. Beautiful Array DP
    B. Long Path dp
    C. Barcode dp
    dp D. Caesar's Legions
    docker-mysql
    日志级别facility
    实时同步lsyncd
  • 原文地址:https://www.cnblogs.com/dgutfly/p/9953891.html
Copyright © 2020-2023  润新知