本节主要来探究nsq如何监听生产者的消息。
通过上节我们得知nsq接收消息发送主要是靠下面这个http处理器 当然了也可以通过原生tcp的方式进行消息发送,由于具体处理流程类似,所以文末会有提到。
router.Handle("POST", "/pub", http_api.Decorate(s.doPUB, http_api.V1))
我们发送一个http请求例如如下就可以向指定topic生产一个消息
$ curl -d "<message>" http://127.0.0.1:4151/pub?topic=name
所以本文的内容主要看 s.doPUB是如何处理请求的。
1.接收请求生成消息结构体
func (s *httpServer) doPUB(w http.ResponseWriter, req *http.Request, ps httprouter.Params) (interface{}, error) { //检查消息是否过大 if req.ContentLength > s.ctx.nsqd.getOpts().MaxMsgSize { return nil, http_api.Err{413, "MSG_TOO_BIG"} } //最大可阅读孩值+1 readMax := s.ctx.nsqd.getOpts().MaxMsgSize + 1 //获得请求体 body, err := ioutil.ReadAll(io.LimitReader(req.Body, readMax)) if err != nil { return nil, http_api.Err{500, "INTERNAL_ERROR"} } if int64(len(body)) == readMax { return nil, http_api.Err{413, "MSG_TOO_BIG"} } if len(body) == 0 { return nil, http_api.Err{400, "MSG_EMPTY"} } //获得对应的topic 以及消息内容,如果topic没有会直接创建 reqParams, topic, err := s.getTopicFromQuery(req) if err != nil { return nil, err } //这儿判断消息是否是延时队列 如果是的话获得延时时间 var deferred time.Duration if ds, ok := reqParams["defer"]; ok { var di int64 di, err = strconv.ParseInt(ds[0], 10, 64) if err != nil { return nil, http_api.Err{400, "INVALID_DEFER"} } deferred = time.Duration(di) * time.Millisecond if deferred < 0 || deferred > s.ctx.nsqd.getOpts().MaxReqTimeout { return nil, http_api.Err{400, "INVALID_DEFER"} } } //创建一个message结构体 msg := NewMessage(topic.GenerateID(), body) msg.deferred = deferred //将消息发送给topic下的channel err = topic.PutMessage(msg) if err != nil { return nil, http_api.Err{503, "EXITING"} } return "OK", nil }
其实代码主要分为几个部分
1.检查消息是否满足要求,例如长度等
2.根据消息获得对应topic(如果没有会创建)
3.生成消息结构体,将消息发送到指定topic下的所有channel
我们主要看下 2和3的具体操作
2.获取topic
思路也是比较常规的思路,获取请求参数里指定的topic,然后去nsqd结构体下的topic map查看是否有对应的topic ,如果有则直接返回,如果没有就创建一个新的topic存入这个topic map,然后返回。看具体getTopicFromQuery
代码,
func (s *httpServer) getTopicFromQuery(req *http.Request) (url.Values, *Topic, error) { //如果请求参数 reqParams, err := url.ParseQuery(req.URL.RawQuery) if err != nil { s.ctx.nsqd.logf(LOG_ERROR, "failed to parse request params - %s", err) return nil, nil, http_api.Err{400, "INVALID_REQUEST"} } //查看是否有topic参数 如果没有直接返回错误信息 topicNames, ok := reqParams["topic"] if !ok { return nil, nil, http_api.Err{400, "MISSING_ARG_TOPIC"} } //获取到topicName topicName := topicNames[0] //如果topicName非法也会报错 比如长度大于1 小于64 if !protocol.IsValidTopicName(topicName) { return nil, nil, http_api.Err{400, "INVALID_TOPIC"} } //去nsqd中查询topic return reqParams, s.ctx.nsqd.GetTopic(topicName), nil }
这儿主要获取到topicName,然后去nsqd中查找,再看nsqd.GetTopic方法。
// GetTopic performs a thread safe operation // to return a pointer to a Topic object (potentially new) func (n *NSQD) GetTopic(topicName string) *Topic { //读写锁,防止重复创建某个topic //加读锁读,如果未读到 n.RLock() t, ok := n.topicMap[topicName] n.RUnlock() if ok { return t } //加写锁并在此检查是否存在 n.Lock() t, ok = n.topicMap[topicName] if ok { n.Unlock() return t } //定义个删除topic后的回调函数 deleteCallback := func(t *Topic) { n.DeleteExistingTopic(t.name) } //新建一个topic t = NewTopic(topicName, &context{n}, deleteCallback) //放入上下文即nsqd的topicMap中 n.topicMap[topicName] = t //解锁 n.Unlock() n.logf(LOG_INFO, "TOPIC(%s): created", t.name) // topic is created but messagePump not yet started // 如果topic已经是loading状态就直接返回 if atomic.LoadInt32(&n.isLoading) == 1 { return t } //如果我们配置了lookupd 查看 lookupd在该topicName下是否有channel 如果有则获取到其下面的channel名字新建到当前topic下 //这儿比如说已经有一个nsqd 关联nsqlookupd topic为xxx ,下面有channelA channelB 这个时候如果我们又启动了一个nsqd 也是关联这个nsqlookupd //并且也有生产者往这个nsqd发送topic为xxx的信息,为了保证集群的一致性,需要其下面也要有channelA channelB lookupdHTTPAddrs := n.lookupdHTTPAddrs() if len(lookupdHTTPAddrs) > 0 { channelNames, err := n.ci.GetLookupdTopicChannels(t.name, lookupdHTTPAddrs) if err != nil { n.logf(LOG_WARN, "failed to query nsqlookupd for channels to pre-create for topic %s - %s", t.name, err) } for _, channelName := range channelNames { if strings.HasSuffix(channelName, "#ephemeral") { continue // do not create ephemeral channel with no consumer client } t.GetChannel(channelName) } } else if len(n.getOpts().NSQLookupdTCPAddresses) > 0 { n.logf(LOG_ERROR, "no available nsqlookupd to query for channels to pre-create for topic %s", t.name) } // 所有channel都添加 可以开始让topic接收消息 t.Start() return t }
这儿其实就是一个新建topic的过程,这儿需要注意的地方也就是两个,一个是新建topic结构体,二是去nsqlookupd同步该topic已有的channel。这儿我们主要看下新建topic结构体的操作,即这个NewTopic方法。
func NewTopic(topicName string, ctx *context, deleteCallback func(*Topic)) *Topic { t := &Topic{ name: topicName,//topicName channelMap: make(map[string]*Channel), //该topic下包含的chanel,所有channel都将保存topic消息的副本 memoryMsgChan: make(chan *Message, ctx.nsqd.getOpts().MemQueueSize),//消息将先到达->memoryMsgChan,然后会轮流推送到所有的channel startChan: make(chan int, 1), //启动信号 exitChan: make(chan int), //关闭信号 channelUpdateChan: make(chan int),//包含的channel修改信号 例如添加或者删除 ctx: ctx,//nsqd上下文 paused: 0, pauseChan: make(chan int),//暂停信号 deleteCallback: deleteCallback, //删除回调函数 idFactory: NewGUIDFactory(ctx.nsqd.getOpts().ID),//id } //临时topic if strings.HasSuffix(topicName, "#ephemeral") { t.ephemeral = true t.backend = newDummyBackendQueue() } else { dqLogf := func(level diskqueue.LogLevel, f string, args ...interface{}) { opts := ctx.nsqd.getOpts() lg.Logf(opts.Logger, opts.logLevel, lg.LogLevel(level), f, args...) } //backend是消息如果已经达到了topic容纳消息的最长时的备份策略 //这儿是存在硬盘中 t.backend = diskqueue.New( topicName, ctx.nsqd.getOpts().DataPath, ctx.nsqd.getOpts().MaxBytesPerFile, int32(minValidMsgLength), int32(ctx.nsqd.getOpts().MaxMsgSize)+minValidMsgLength, ctx.nsqd.getOpts().SyncEvery, ctx.nsqd.getOpts().SyncTimeout, dqLogf, ) } //topic准备开始接收消息 t.waitGroup.Wrap(t.messagePump) //通知nsqlookupd该nsqd新建了一个topic t.ctx.nsqd.Notify(t) return t }
这段创建topic的代码比较核心,主要有几个地方需要注意。1是新建topic结构体 2是设置topic的backend 这关系到消息达到最大时的存储策略 3是topic开始进入准备接收消息状态
关于topic结构体的一些核心变量有必要做一个说明
- channelMap 用来存放该topic下的所有channel,当有消息推送到topic时,下面的所有channel都会收到信息
- memoryMsgChan 消息推送chan,当有消息到来时会先到该chan,然后接收chan信息遍历推送到每个channel
- startChan 开始信号,有信息进入该chan说明topic可以开始接收消息推送
- exitChan 接收信号,当该topic不需要在接收消息推送(例如被删除),可以将信息设置到该chan
- channelUpdateChan channel修改信号,例如该topic下有新创建channel,则可以将信息推入该chan,可以用来同步nsqlookupd等
- ctx 即nsqd上下文
- deleteCallback 即删除回调函数
新建topic后,会设置其backend即信息消息超出chan最大值时的备份方法,这儿一般存在硬盘上,这个后面会说到。
t.waitGroup.Wrap(t.messagePump) 则是接收处理消息的方法。t.ctx.nsqd.Notify(t) 内部最后主要是会通知nsqlookupd做一些同步信息。
我们主要看下接收处理消息的方法。
3. topic消息处理
func (t *Topic) messagePump() { //消息体 var msg *Message //消息buf var buf []byte //错误 var err error //该topic下所有channel var chans []*Channel //该topic的memoryMsgChan 消息入口 var memoryMsgChan chan *Message //超出最大消息队列的备份chan var backendChan chan []byte // do not pass messages before Start(), but avoid blocking Pause() or GetChannel() for { select { case <-t.channelUpdateChan: continue case <-t.pauseChan: continue case <-t.exitChan: goto exit //如果startChan准备好了才开始接收消息推送 case <-t.startChan: } break } //读取该topic中所有的channel t.RLock() for _, c := range t.channelMap { chans = append(chans, c) } t.RUnlock() if len(chans) > 0 && !t.IsPaused() { //赋值memoryMsgChan backendChan memoryMsgChan = t.memoryMsgChan backendChan = t.backend.ReadChan() } //核心消息轮询处理 for { select { //接收到消息推送 case msg = <-memoryMsgChan: //接收到备份消息推送 例如磁盘 case buf = <-backendChan: msg, err = decodeMessage(buf) if err != nil { t.ctx.nsqd.logf(LOG_ERROR, "failed to decode message - %s", err) continue } //如果channel有改动 则重新获取该topic下的channel case <-t.channelUpdateChan: chans = chans[:0] t.RLock() for _, c := range t.channelMap { chans = append(chans, c) } t.RUnlock() //如果暂停了就直接为空 if len(chans) == 0 || t.IsPaused() { memoryMsgChan = nil backendChan = nil } else { //重新赋值memoryMsgChan 和backendChan memoryMsgChan = t.memoryMsgChan backendChan = t.backend.ReadChan() } continue //如果是暂停信号 则和上面暂停时一个操作 case <-t.pauseChan: if len(chans) == 0 || t.IsPaused() { memoryMsgChan = nil backendChan = nil } else { memoryMsgChan = t.memoryMsgChan backendChan = t.backend.ReadChan() } continue //如果是exit信号说明该topic不在消费消息,直接goto到exit代码块 case <-t.exitChan: goto exit } //遍历该topic下的channel 并且发送消息 //注意如果为延时消息则会扔到延时队列里边去 for i, channel := range chans { chanMsg := msg // copy the message because each channel // needs a unique instance but... // fastpath to avoid copy if its the first channel // (the topic already created the first copy) if i > 0 { chanMsg = NewMessage(msg.ID, msg.Body) chanMsg.Timestamp = msg.Timestamp chanMsg.deferred = msg.deferred } if chanMsg.deferred != 0 { channel.PutMessageDeferred(chanMsg, chanMsg.deferred) continue } err := channel.PutMessage(chanMsg) if err != nil { t.ctx.nsqd.logf(LOG_ERROR, "TOPIC(%s) ERROR: failed to put msg(%s) to channel(%s) - %s", t.name, msg.ID, channel.name, err) } } } exit: t.ctx.nsqd.logf(LOG_INFO, "TOPIC(%s): closing ... messagePump", t.name) }
这里面逻辑还是很简单的,就先轮询等待,直到接收到start信号,则开始处理消息信号。
- 如果接收到正常的msg即消息信号或者backend信号即还未被消费的备份消息,则直接遍历该topic下的所有channel并发送消息 (延时消息会放置到延时队列)
- 如果接收到channel改动信号比如新增或者删除,则重新赋值该topic下的所有channel
- 如果接收到暂停信号,且是暂停命令,则将实时消息和备份消息chan都置为null,如果不是则将上下文中的chan重新赋值到该方法中
- 如果接收到exit信号,则退出消息接收轮询,执行exit后的代码块
其实这儿比较关注的点应该是两个,何时会接收到memoryMsgChan的值,每个channel具体是怎么推送消息到其下面的所有client也就是consumer的。 我们先看第一个问题,怎么接收memoryMsgChan,要明白这个问题,我们要回到菜单1中,创建好topic后的操作,代码中创建topic后会执行一个putMessage操作、
msg := NewMessage(topic.GenerateID(), body) msg.deferred = deferred err = topic.PutMessage(msg)
4. 推送消息到topic的memoryMsgChan
func (t *Topic) PutMessage(m *Message) error { t.RLock() defer t.RUnlock() //检查topic是否已经被停了 if atomic.LoadInt32(&t.exitFlag) == 1 { return errors.New("exiting") } //发送消息 err := t.put(m) if err != nil { return err } //已接收消息+1 atomic.AddUint64(&t.messageCount, 1) //备份消息内容 atomic.AddUint64(&t.messageBytes, uint64(len(m.Body))) return nil }
这儿就是检查了一下,核心还是这个put方法。
func (t *Topic) put(m *Message) error { select { //****************关键操作 消息放入到该topic的 memoryMsgChan中 case t.memoryMsgChan <- m: //如果放入失败说明chan已经满了 此时需要放入磁盘 default: b := bufferPoolGet() //信息写入备份 err := writeMessageToBackend(b, m, t.backend) bufferPoolPut(b) //该nsqd处于不健康状态 t.ctx.nsqd.SetHealth(err) if err != nil { t.ctx.nsqd.logf(LOG_ERROR, "TOPIC(%s) ERROR: failed to write message to backend - %s", t.name, err) return err } } return nil }
可以看到 这儿就很明显的看到会将消息写入memoryMsgChan ,而另一边topic中就会接收到这个消息并推送到其包含的所有channel。当然如果chan已经满了,就会执行default操作,即执行备份操作,一般是写入磁盘,关于备份磁盘有关的操作后面会专门讲到,这儿就不先说明了。
5.topic如何将消息推送到其包含的所有channel
通过三我们知道topic会遍历其包含的所有channel,然后将消息推送到channel。我们可以看下具体的推送细节即channel.PutMessage方法
err := channel.PutMessage(chanMsg)
func (c *Channel) PutMessage(m *Message) error { c.RLock() defer c.RUnlock() if c.Exiting() { return errors.New("exiting") } err := c.put(m) if err != nil { return err } atomic.AddUint64(&c.messageCount, 1) return nil }
和topic的那儿的操作很像啊,都是做了一个状态判断。然后执行其put方法。
func (c *Channel) put(m *Message) error { select { case c.memoryMsgChan <- m: default: b := bufferPoolGet() err := writeMessageToBackend(b, m, c.backend) bufferPoolPut(b) c.ctx.nsqd.SetHealth(err) if err != nil { c.ctx.nsqd.logf(LOG_ERROR, "CHANNEL(%s): failed to write message to backend - %s", c.name, err) return err } } return nil }
这儿也和topic很像,会将消息推送到Channel中的memoryMsgChan 如果长度过大,那么就会放入到备份队列中。我们发现channel的操作和topic非常像。那么也很容易可以得知,channel中所包含的消费者肯定也会轮询接收这个memoryMsgChan 的信号。当然具体的channe有关的内容属于消费者的范畴,本文主要讲述生产者。
此时我们已经成功接收到生产者推送的消息,并将消息分发到topic下所有的channel。用图来表示的话大致可以如下
到此生产者已经完成工作,在后面一章将会讲到消费者是如何接收channel中的消息。
官网中信息传递图 nsqd的部分已经完成
6. select使用
本文很多地方用到select,该关键字一般用来操作接收多个chan事件时分别做出对应的处理,比如我们可以用如下demo来了解
func main() { read :=bufio.NewReader(os.Stdin) ch1 := make(chan int ,1) ch2 := make(chan int ,1) ch3 := make(chan int ,1) go func() { for { select { case <-ch1: fmt.Println("接收到指令1") case <-ch2: fmt.Println("接收到指令2") case <-ch3: fmt.Println("接收到指令3") default: } } }() for { s,_ :=read.ReadString(' ') str :=strings.ReplaceAll(s," ","") switch str { case "1": ch1 <- 1 case "2": ch2 <- 1 case "3": ch3 <- 1 default: fmt.Println("未知指令") } } }
其实就是可以监听多个chan信号,监听到其中某个可以执行对应的操作,一般和for结合使用。
后记
nsq不光能通过http的方式发送消息,也支持原生tcp协议监听端口监听生产者消息。具体可以看到nsqd.main方法中创建的tcpServer。其接收到新的套接字后会执行protocolV2.IOLoop(clientConn)方法。在该方法中最终可以走到如下代码
response, err = p.Exec(client, params)
在该方法中
func (p *protocolV2) Exec(client *clientV2, params [][]byte) ([]byte, error) { if bytes.Equal(params[0], []byte("IDENTIFY")) { return p.IDENTIFY(client, params) } err := enforceTLSPolicy(client, p, params[0]) if err != nil { return nil, err } switch { case bytes.Equal(params[0], []byte("FIN")): return p.FIN(client, params) case bytes.Equal(params[0], []byte("RDY")): return p.RDY(client, params) case bytes.Equal(params[0], []byte("REQ")): return p.REQ(client, params) //接收生产者消息 case bytes.Equal(params[0], []byte("PUB")): return p.PUB(client, params) case bytes.Equal(params[0], []byte("MPUB")): return p.MPUB(client, params) case bytes.Equal(params[0], []byte("DPUB")): return p.DPUB(client, params) case bytes.Equal(params[0], []byte("NOP")): return p.NOP(client, params) case bytes.Equal(params[0], []byte("TOUCH")): return p.TOUCH(client, params) case bytes.Equal(params[0], []byte("SUB")): return p.SUB(client, params) case bytes.Equal(params[0], []byte("CLS")): return p.CLS(client, params) case bytes.Equal(params[0], []byte("AUTH")): return p.AUTH(client, params) } return nil, protocol.NewFatalClientErr(nil, "E_INVALID", fmt.Sprintf("invalid command %s", params[0])) }
我们可以看这个p.PUB方法就是接收生产者消息的方法。内部的处理操作和http方式的一致,这儿就不在说明。