spark与hadoop共存吗

这篇文章主要讲解了“spark与hadoop共存吗”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“spark与hadoop共存吗”吧!

Q1:为了加快spark shuffle 的执行速度是否可以把spark_local_dirs 指向一块固态硬盘上面,这样做是否有效果

  • 可以把spark_local_dirs指向一块固态硬盘上面,这样会非常有效的提升Spark执行速度;

  • 同时想更快的提升Spark运行速度的话可以指定多个Shuffle输出的目录,让Shuffle并行读写磁盘;

Q2:solidation=true只是在同一机器上进行合并对吧

  • solidation=true是在同一台机器上进行合并;

  • 当进行合并的时候会把属于同一个Reducer的bucket放入同一个文件,这回极大的减少Shuffler文件数量,提升性能

Q3:未来spark与hadoop会共存吗

  • Spark和hadoop会共存, Spark+Hadoop= A winning  combination;

  • 并存的时候,Hadoop主要使用HDFS进行数据存储,Spark负责对大数据一体化多元化的计算;

感谢各位的阅读,以上就是“spark与hadoop共存吗”的内容了,经过本文的学习后,相信大家对spark与hadoop共存吗这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程之家,小编将为大家推送更多相关知识点的文章,欢迎关注!

相关文章

今天小编给大家分享一下excel图案样式如何设置的相关知识点,...
这篇文章主要讲解了“win10设置过的壁纸如何删除”,文中的讲...
这篇“Xmanager怎么显示远程linux程序的图像”文章的知识点大...
今天小编给大家分享一下xmanager怎么连接linux的相关知识点,...
这篇“如何重置Linux云服务器的远程密码”文章的知识点大部分...
本篇内容介绍了“Linux云服务器手动配置DNS的方法是什么”的...