情况: Load Balancer在其后面说2台机器A和B.假设机器A通过负载平衡器接收来自客户端的请求,并将消息传递给消费者是微服务的队列。微服务完成其工作,并发出json消息。这个json消息将被发送回客户端。响应来自另一台机器节点的http请求js
当前实现: 微服务将它创建的json消息发送回机器A和微服务之间的队列。服务器标识符在消息中传递给微型服务,通过它可以知道将消息发布到哪个队列。所以基本上,微服务和负载均衡器后面的每台机器之间都有队列。
问题: 随着流量的增加,机器数量不断增加,微服务和机器之间的队列数量也在增加,这令人头疼。有没有办法响应机器A收到的机器B的请求?我不知道如何保持上下文。有人建议Redis,但有可能吗?
是的酒吧是RabbitMQ。根据我的意思,在Nodejs中有一个对应于请求的响应对象。所以基本上,服务器B如何响应服务器A的请求。 这么多机器上的内部API看起来有些杂乱。 –
你有什么建议@gmaliar –
取决于你的需求:)首先HTTP更容易... – gmaliar