消息队列ActiveMQ、RocketMQ、RabbitMQ和Kafka如何选择

1.ActiveMQ优点单机吞吐量:万级topic数量都吞吐量的影响:时效性:ms级可用性:高,基于主从架构实现高可用性消息可靠性:有较低的概率丢失数据功能支持:MQ领域的功能极其完备缺点:官方社区现在对ActiveMQ 5.x维护越来越少,较少在大规模吞吐的场景中使用。
2.Kafka号称大数据的杀手锏,谈到大数据领域内的消息传输,则绕不开Kafka,这款为大数据而生的消息中间件,以其百万级TPS的吞吐量名声大噪,迅速成为大数据领域的宠儿,在数据采集、传输、存储的过程中发挥着举足轻重的作用。
Apache Kafka它最初由LinkedIn公司基于独特的设计实现为一个分布式的提交日志系统( a distributed commit log),之后成为Apache项目的一部分。
目前已经被LinkedIn,Uber, Twitter, Netflix等大公司所采纳。
优点性能卓越,单机写入TPS约在百万条/秒,最大的优点,就是吞吐量高。
时效性:ms级可用性:非常高,kafka是分布式的,一个数据多个副本,少数机器宕机,不会丢失数据,不会导致不可用消费者采用Pull方式获取消息, 消息有序, 通过控制能够保证所有消息被消费且仅被消费一次;有优秀的第三方Kafka Web管理界面Kafka-Manager;
在日志领域比较成熟,被多家公司和多个开源项目使用;
功能支持:功能较为简单,主要支持简单的MQ功能,在大数据领域的实时计算以及日志采集被大规模使用缺点:Kafka单机超过64个队列/分区,Load会发生明显的飙高现象,队列越多,load越高,发送消息响应时间变长使用短轮询方式,实时性取决于轮询间隔时间;
消费失败不支持重试;
支持消息顺序,但是一台代理宕机后,就会产生消息乱序;
社区更新较慢;
3.RabbitMQRabbitMQ 2007年发布,是一个在AMQP(高级消息队列协议)基础上完成的,可复用的企业消息系统,是当前最主流的消息中间件之一。
RabbitMQ优点:由于erlang语言的特性,mq 性能较好,高并发;
吞吐量到万级,MQ功能比较完备 健壮、稳定、易用、跨平台、支持多种语言、文档齐全;
开源提供的管理界面非常棒,用起来很好用社区活跃度高;
RabbitMQ缺点:erlang开发,很难去看懂源码,基本职能依赖于开源社区的快速维护和修复bug,不利于做二次开发和维护。
RabbitMQ确实吞吐量会低一些,这是因为他做的实现机制比较重。
需要学习比较复杂的接口和协议,学习和维护成本较高。
4.RocketMQRocketMQ出自 阿里公司的开源产品,用 Java 语言实现,在设计时参考了 Kafka,并做出了自己的一些改进。
RocketMQ在阿里集团被广泛应用在订单,交易,充值,流计算,消息推送,日志流式处理,binglog分发等场景。
RocketMQ优点:单机吞吐量:十万级可用性:非常高,分布式架构消息可靠性:经过参数优化配置,消息可以做到0丢失功能支持:MQ功能较为完善,还是分布式的,扩展性好支持10亿级别的消息堆积,不会因为堆积导致性能下降源码是java,我们可以自己阅读源码,定制自己公司的MQ,可以掌控RocketMQ缺点:支持的客户端语言不多,目前是java及c++,其中c++不成熟;
社区活跃度一般没有在 mq 核心中去实现JMS等接口,有些系统要迁移需要修改大量代码四、消息队列选择建议1.KafkaKafka主要特点是基于Pull的模式来处理消息消费,追求高吞吐量,一开始的目的就是用于日志收集和传输,适合产生大量数据的互联网服务的数据收集业务。
大型公司建议可以选用,如果有日志采集功能,肯定是首选kafka了。
2.RocketMQ天生为金融互联网领域而生,对于可靠性要求很高的场景,尤其是电商里面的订单扣款,以及业务削峰,在大量交易涌入时,后端可能无法及时处理的情况。
RoketMQ在稳定性上可能更值得信赖,这些业务场景在阿里双11已经经历了多次考验,如果你的业务有上述并发场景,建议可以选择RocketMQ。
3.RabbitMQRabbitMQ :结合erlang语言本身的并发优势,性能较好,社区活跃度也比较高,但是不利于做二次开发和维护。
不过,RabbitMQ的社区十分活跃,可以解决开发过程中遇到的bug。
如果你的数据量没有那么大,小公司优先选择功能比较完备的RabbitMQ。

参考:
他们的区别请参考下

参考:
很多年前, 新浪微博的研发负责人TimYang老师在微博架构设计的演讲中,引用了一句话:Databases are specializing – the “one size fits all” approach no longer applies -- MongoDB设计哲学这种哲学同样可以适用于消息队列。
ActiveMQ和RabbitMQ算是老一辈的消息队列。
在2012年左右还是广泛的在各个公司里使用。
但在高堆积和异构这两个场景表现不尽如人意。
▍ 高堆积场景当时我还服务于一家互联网彩票公司 ,选用ActiveMQ。
因为业务增长很快 ,每天的消息量从日均5万增长到日均100万。
但我们越来越忧心,我们发现ActiveMQ在面对高堆积的场景下,显得越来越力不从心,消费者hang住的情况越来越常见。
不得已,公司技术团队在设计消费者的时候,先从消息队列里取出消息,存在本地文件里,然后异步消费。
这样消息堆积的几率下降很多。
去哪儿也很早大规模使用ActiveMQ , 但他们在使用过程中经常出现消息丢失或者整个进程hang住的情况 , 而RabbitMQ是erlang语言编写的,团队无法驾驭,只能另起炉灶 ,研发了QMQ。
京东最开始也是大规模使用ActiveMQ。
我在读《京东消息中间件演进之路》这篇文章时候,作者提到:Broker较重,采用B-Tree索引,性能随消息积压量的上升急剧下降;
Broker端采用的VirtualTopic模式针对一个Topic有多个订阅者的情况会对每个订阅者单独存储一份消息。
而京东的生产环境中大部分都是采用VirtualTopic并且每个Topic订阅者都很多,举个例子,比如“订单管道”消息:它有将近100个订阅者,也就是同一个数据要写将近100份,不仅如此,这100份消息还要通过网络发送到Slave上,经过这些流程,写入TPS只能达到几百。
京东也是发现了ActiveMQ无法匹配他们的需求,慢慢发展出他们自己的JMQ。
▍ 异构场景这两种消费场景ActiveMQ和RabbitMQ显得左支右绌,只能采取消息复制的偏门手段曲线救国。
集群消费 如下
广播消费双十一大促时,各个分会场会有玲琅满目的商品,每件商品的价格都会实时变化。
使用缓存技术也无法满足对商品价格的访问需求,缓存服务器网卡满载。
访问较多次商品价格查询影响会场页面的打开速度。
此时需要提供一种广播机制,一条消息本来只可以被集群的一台机器消费,如果使用消息队列广播消费模式,那么这条消息会被所有节点消费一次,相当于把价格信息同步到需要的每台机器上,取代缓存的作用。
2012年,Apache Kafka诞生了。
这是一个全新设计的消息队列。
它天然支持高堆积,异构场景。
同时它在日志同步领域大放异彩 ,甚至于某种程度上成为事实上的标准。
阿里最开始也使用Kafka,但因为Kafka是Scala开发的,他们对Scala不熟,另外阿里内部有些需求kafka没有实现,比如事务、多种offset存储等。
所以阿里自己参考Kafka,研发出了MetaQ。
后来,他们发现在多分区条件下,MetaQ有IO瓶颈等问题。
所以MetaQ的升级版RocketMQ诞生了。
2015年,RocketMQ捐献给了Apache,成为Apache顶级项目。
随着移动互联网和大数据爆发 ,Kafka/RocketMQ在各大公司越来越广泛的使用,围绕着他们也生态也越来越繁荣。
而同时,ActiveMQ和RabbitMQ显得就落寞很多。
相信未来,技术的发展,场景的变化,理论的突破,也许新的消息队列也会出现,又或者新的模型代替了消息队列也未可知。
这是客观的规律。

参考:
ActiveMQ运行于java虚拟机,以纯java开发的消息中间件,也有比较完善的客户端支持,基于同类型的mq而言性能一般般。
如其他网友所说的在国内不潮流。
RocketMQ阿里提供的开源mq,喜欢可以使用,遇到疑问在相关社区应该可以更好的找到解决方式。
客户端方面的支持其实不太友善RabbitMQ不太了解,支持的协议只有AMQP。
客户端支持比较完善kafka目前比较流行,性能不错。
客户端支持比较完善
参考:
ActiveMQ不潮流,不用;
RocketMQ喜欢阿里的用;
RabbitMQ不喜欢阿里的用;
Kafka日志服务用。

参考:
以下是几个MQ的对不一般的业务系统要引入MQ,最早大家都用ActiveMQ,但是现在确实大家用的不多了,没经过大规模吞吐量场景的验证,社区也不是很活跃,所以大家还是算了吧,不推荐用这个了;
后来大家开始用RabbitMQ,但是确实erlang语言阻止了大量的java工程师去深入研究和掌控他,对公司而言,几乎处于不可控的状态,但是确实人是开源的,比较稳定的支持,活跃度也高;
不过现在确实越来越多的公司,会去用RocketMQ,确实很不错,但是要想好社区万一突然黄掉的风险,对自己公司技术实力有绝对自信的,我推荐用RocketMQ,否则回去老老实实用RabbitMQ吧,人是活跃开源社区,绝对不会黄所以中小型公司,技术实力较为一般,技术挑战不是特别高,用RabbitMQ是不错的选择;
大型公司,基础架构研发实力较强,用RocketMQ是很好的选择如果是大数据领域的实时计算、日志采集等场景,用Kafka是业内标准的,绝对没问题,社区活跃度很高,绝对不会黄,何况几乎是全世界这个领域的事实性规范

标签