Storm擅长于动态处理大量实时生产的小数据块,概念上是将小数据量的数据源源不断传给过程;
Spark擅长对现有的数据全集做处理,概念是将过程传给大数据量的数据。
二者设计思路相反。Storm侧重于处理的实时性,Spark侧重处理庞大数据(类似于Hadoop的MR)。
Spark流模块(Spark Streaming)与Storm类似,但有区别:
1.Storm纯实时,来一条数据,处理一条数据;SparkStreaming准实时,对一个时间段内的数据收集起来,作为一个RDD,再做处理。
2.Storm响应时间毫秒级;Spark Streaming响应时间秒级
3.Storm可以动态调整并行度;SparkStreaming不行
Storm应用场景:
1、对于需要纯实时,不能忍受1秒以上延迟的场景
2、要求可靠的事务机制和可靠性机制,即数据的处理完全精准
3、如果还需要针对高峰低峰时间段,动态调整实时计算程序的并行度,以最大限度利用集群资源
Spark Streaming应用场景:
1、Spark Streaming可以和Spark Core、Spark SQL无缝整合,如果一个项目除了实时计算之外,还包括了离线批处理、交互式查询等业务功能,考虑使用Spark Streaming。