共存安装的配置流程讲得挺细,Spark2.0Spark1.3能一起跑,确实省了不少事。

同版本冲突那点事,搞大数据的你肯定遇到过。这篇文章直接用例子说话,目录结构清楚,像/usr/local/spark2/usr/local/spark1怎么区分、bashrc怎么配,写得还蛮清楚。

而且它不光讲装,还顺手提了点调试经验,比如spark-submit的时候指定环境变量,能少走不少弯路。文档风格不算花哨,但挺接地气,适合赶项目时候快速参考。

如果你有老项目用着Spark1.x,又想试试新版本,那这篇Spark2.01.3的共存配置教程可以收藏一下,不然版本打架真挺烦的。