排序
apache hadoop是什么意思
apache hadoop是一套用于在由通用硬件构建的大型集群上运行应用程序的框架。它实现了map/reduce编程范型,计算任务会被分割成小块(多次)运行在不同的节点上。除此之外,它还提供了一款分布式...
apache spark 是什么
Spark是一个基于内存计算的开源的集群计算系统,目的是让数据分析更加快速。Spark非常小巧玲珑,由加州伯克利大学AMP实验室的Matei为主的小团队所开发。使用的语言是Scala,项目的core部分的代...