谢请!
首先,只会使用Python是可以做大数据相关岗位的。Python目前在大数据领域的应用非常普遍,也是广大程序员比较喜欢的工具之一,在Hadoop和Spark平台下是完全可以使用Python的。而且,目前使用Python做大数据相关的开发越来越多,很多Java程序员都开始转向使用Python,我就是其中之一。
但是作为大数据开发者来说,掌握Java还是很有必要的,原因有以下几点:
第一,Hadoop平台本身是基于Java构建的,理解Java能够更好的与Hadoop平台进行交互,我们早期在Hadoop平台下使用Python编写的代码是需要转换成Java才能运行的,这就说明了Hadoop虽然支持Python,但是多少有点“二等公民”的意思。
第二,Spark平台目前更多的选择是使用Scala,而Scala是基于Java构建的。虽然Spark平台也同样支持使用Python开发,但是Spark的官方Demo首发往往也是基于Java和Scala语言的,Python语言同样有点“第二阵营”的意思。
可以,语言都相似,慢慢学,我有如下建议:
大数据技术学习主要是分三部分
一、编程基础(java/linux)
感请!
对于您的疑问,其实可以从大数据平台工程师的招聘要求中获得答案。
感请。
python和java是编程语言。会python还是会java无所谓,都可以。想做大数据工程师,开发语言无所谓,不过恭喜你会python更吃香。不过除了开发语言外还需要会很多别的东西,最起码hadoop要会,数据抓取要会。
现在用python会更多一些,从事大数据开发工作不单需要会编程语言,还需要会大数据技术,如hadoop,spark,hive等等,通过这些工具进行数据采集,清洗,分析挖掘来完成指定的分析专题,因此只会python不是是否胜任的关键。
如果熟悉python,做过一些小项目,那学java也很快,很多概念相同,很多东西就是语言语法糖,要学大数据的话,Hadoop就是基于java的,所以最好会java,看的懂代码,不会的可以网上查资料。
现在框架大多数都有python接口的,所以会python可以学大数据。