百度网盘中存储了 flink-1.6.1-bin-hadoop27-scala_2.11.tgz 文件。
flink-1.6.1-bin-hadoop27-scala_2.11.tgz 文件获取
相关推荐
Spark Core 1.6.1核心组件(Scala 2.11)
Spark 1.6.1 版本的核心包,用起来还挺稳定的,适合做一些老版本环境的兼容开发。尤其你在跑老项目或者搞兼容测试时,这包挺顺手的,基本不出幺蛾子。启动快,依赖也不复杂,和 Hadoop 那边对接也比较顺利,省了不少心。
运行在Scala 2.11上的 Spark 版本,1.6.1 算是比较成熟的一版了。比起之前的 1.6.0,bug 修了一些,性能也稳了一点,是 Shuffle 那块的表现会好不少。适合你想要个“别动我就行”的版本。
你要是对比着用,可以看看之前那个优化版 1.6.0,嗯,两个版本差不多,但 1.6.1 更保险一些。还有,如果你想搞点图计算啥的,顺手看看GraphX 的
spark
0
2025-06-15
FLINK-1.12.0-BIN-SCALA_2.11-el6安装包
Apache Flink 1.12.0是为CDH 5.2~6.4平台设计的流处理引擎,适用于系统el6环境。
flink
9
2024-10-13
spark-3.1.3-bin-hadoop3.2.tgz 文件说明
适用于 Linux 系统的 Apache Spark 3.1.3 版本安装包,文件名:spark-3.1.3-bin-hadoop3.2.tgz。
spark
8
2024-05-19
Flink 1.14.4 安装包 (Scala 2.11)
Apache Flink 1.14.4 版本对应 Scala 2.11 的安装包。
flink
20
2024-05-12
spark-3.5.1-bin-hadoop3.tgz
Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。 Spark是一种与Hadoop相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使Spark在某些工作负载方面表现
spark
0
2025-06-11
spark-2.2.2-bin-hadoop2.7.tgz 资源
spark-2.2.2-bin-hadoop2.7.tgz 为 Apache Spark 2.2.2 版本的安装包, 您可以访问 Apache Spark 官方网站获取该版本的源码包:http://archive.apache.org/dist/spark-2.2.2/
spark
11
2024-05-27
spark-2.4.0-bin-without-hadoop.tgz解读
Spark 2.4.0 安装包:免 Hadoop 版本
该资源为 Apache Spark 的独立安装包,版本号为 2.4.0,不包含 Hadoop 组件。适用于已配置 Hadoop 环境或无需 Hadoop 功能的用户进行 Spark 的部署和使用。
Spark 简介
Apache Spark 是一种用于大数据处理的通用引擎,其核心是分布式内存抽象,能够高效地处理批处理、流处理、机器学习和交互式查询等任务。
spark
11
2024-04-29
flink-1.7.0-bin-scala-2.12安装程序
Apache Flink是一个用于大规模分布式环境中高性能、可靠且容错的数据处理的开源流处理和批处理框架。它提供了一个统一的编程模型,可以处理无界流数据和有界批量数据,并支持事件时间和处理时间的语义。
flink
25
2024-05-12
Spark GraphX 1.2.2 (Scala 2.11) 库文件
Spark GraphX 是 Spark 用于图形和图形并行计算的组件。 spark-graphx_2.11-1.2.2.jar 文件包含了使用 Scala 2.11 版本编写的 Spark GraphX 1.2.2 的核心功能和 API。
NoSQL
12
2024-06-22