共存安装的配置流程讲得挺细,Spark2.0和Spark1.3能一起跑,确实省了不少事。
同版本冲突那点事,搞大数据的你肯定遇到过。这篇文章直接用例子说话,目录结构清楚,像/usr/local/spark2
和/usr/local/spark1
怎么区分、bashrc
怎么配,写得还蛮清楚。
而且它不光讲装,还顺手提了点调试经验,比如spark-submit
的时候指定环境变量,能少走不少弯路。文档风格不算花哨,但挺接地气,适合赶项目时候快速参考。
如果你有老项目用着Spark1.x,又想试试新版本,那这篇Spark2.0
和1.3
的共存配置教程可以收藏一下,不然版本打架真挺烦的。