akka cluster sharding

cluster sharding 的目的在于提供一个框架,方便实现 DDD,虽然我至今也没搞明白 DDD 到底适用于是什么场合,但是 cluster sharding 却是我目前在做的一个 project 扩展到集群上非常需要的工具。

sharding 要做这么几件事

1. 对于每一个 entity,创建一个 actor。该 entity 有 Id 作为唯一标示。该 entity 的所有消息都由此 actor 来处理

2. 该 actor 在一段时间内不工作时,会超时并 kill self

3. 当一个集群中加入新的节点时,新的 actor 会被自动创建到新 node 上,或者老的actor 会负载均衡,迁移到新 node 上。同样的,当节点挂掉时,挂掉的 actor 会迁移到新的

在 sharding 被提出之前,google group 和 stackoverflow 上有很多人希望有这么一个东西,那时候还是 2011 年,现在已经 2015 年了。

sharding 的原理和用法 doc 都有比较详细的说明,下面做个小测试:

首先是 entity actor 的定义:

object ActionWorker {
  def props(): Props = Props(new ActionWorker)

  //must return s: Command
  val idExtractor: ShardRegion.IdExtractor = {
    case s: Command => (s.id, s)
  }

  val shardResolver: ShardRegion.ShardResolver = msg => msg match {
    case s: Command   => (math.abs(s.id.hashCode) % 100).toString
  }

  val shardName: String = "ActionWorker"
}

  

idExtractor 会从 message 中抽取 id,作为路由的依据,而返回值的第二项是 actor 收到的消息

shardResolver 根据 id 确定 shard 所在的位置,哈希函数的设定方式我也没有自习研究,doc 说是 id 的十倍就可以。

class ActionWorker extends Actor {
  val log = Logging(context.system, this)

  println("action worker is created")

  context.setReceiveTimeout(30 seconds)

  override def receive: Receive = {
    case Command(id, payload) =>
      val selfDesc = self.path.parent.name + "-" + self.path.name
      println("here i am, working: " + selfDesc)

      log.info("here i am, working: " + selfDesc)

    case ReceiveTimeout =>
      log.info("nothing to do, better kill myself")

      val selfDesc = self.path.parent.name + "-" + self.path.name
      println("here i am, working: " + selfDesc)

      println("nothing to do, better kill myself")
      context.stop(self)
  }

  

actor 的定义没有特别之处,需要注意的是

1. actor 收到的消息是 idExtract 的第二项,而不是 s: Command 那个东西

2. actor 没有一个正常的途径得到自己的id,一个 workaroud 的办法是通过 self.path.name 来得到自己的id,再据此完成某些初始化操作

worker 处理数据,生成数据的 actor 叫做 Bot

class Bot extends Actor {

  val log = Logging(context.system, this)

  val tickTask = context.system.scheduler.schedule(3.seconds, 10.seconds, self, Command(""))

  def receive = create

  val postRegion = ClusterSharding(context.system).shardRegion(ActionWorker.shardName)

  val create: Receive = {
    case Command(id, payload) =>
      val postId = Random.nextInt(5).toString
      log.info("bot create new command and received: " + postId)

      println("new command postID = " + postId)

      postRegion ! Command(postId, postId)

  }
}

  

Bot 生成的数据要传到 worker actor,注意 postRegion 的获得方式,它首先从 actorSystem 中得到 ClusterSharding 集合(一个 actorSystem 可能会有多个 shard),然后根据 shardName 定位到唯一的 shard。最后把需要发送的消息传给 postRegin,postRegin 会完成转发。

Main 方法的 startUp 函数

def startup(ports: Seq[String]): Unit = {
    ports foreach { port =>
      // Override the configuration of the port
      val config = ConfigFactory.parseString("akka.remote.netty.tcp.port=" + port).
        withFallback(ConfigFactory.load())

      // Create an Akka system
      val system = ActorSystem("ClusterSystem", config)

      startupSharedJournal(system, startStore = (port == "2551"), path =
        ActorPath.fromString("akka.tcp://ClusterSystem@127.0.0.1:2551/user/store"))

      ClusterSharding(system).start(
        typeName = ActionWorker.shardName,
        entryProps = Some(ActionWorker.props()),
        idExtractor = ActionWorker.idExtractor,
        shardResolver = ActionWorker.shardResolver)

      if (port != "2551" && port != "2552")
        system.actorOf(Props[Bot], "bot")
    }

  }

  def startupSharedJournal(system: ActorSystem, startStore: Boolean, path: ActorPath): Unit = {
    // Start the shared journal on one node (don't crash this SPOF)
    // This will not be needed with a distributed journal
    if (startStore)
      system.actorOf(Props[SharedLeveldbStore], "store")

    // register the shared journal
    import system.dispatcher
    implicit val timeout = Timeout(15.seconds)
    val f = (system.actorSelection(path) ? Identify(None))
    f.onSuccess {
      case ActorIdentity(_, Some(ref)) => SharedLeveldbJournal.setStore(ref, system)
      case _ =>
        system.log.error("Shared journal not started at {}", path)
        system.shutdown()
    }
    f.onFailure {
      case _ =>
        system.log.error("Lookup of shared journal at {} timed out", path)
        system.shutdown()
    }
  }

  

startupSharedJournal 是必须要执行的,不然 cluster 跑不起来。(后面测试了下,发现能跑起来)

ClusterSharding 在本 actorSystem 启动,参数比较直观。

需要注意的是:

1. sharedJournal 是在测试情况下才用得到的,在 prod 环境下应该使用 journal

2. cluster sharding 借助 cluster singleton 实现

原文地址:https://www.cnblogs.com/xinsheng/p/4615976.html