为什么要使用Python来写Spark
我觉得Python写spark的唯一原因是:你要做数据挖掘和AI相关的工作。因为很多数据挖掘的基础语言是python,再去学scala会很费时间,而python强大的类库是它的优势,很多算法库只有python才有。
Win本地编写代码调试
编辑器:PyCharm
Spark:1.6
Python:2.7
Win环境准备
Python的安装
解压python包,在环境变量里面配上bin的路径
Spark的安装
下载spark的bin文件,解压即可,在环境变量配置SPARK_HOME
要可以通过编辑器来安装,如pycharm,查找pyspark库安装即可
Hadoop安装
安装hadoop环境 。在win下面需要winutils.exe;在环境里面配置HADOOP_HOME 即可。
代码示例
# -*- coding: utf-8 -*-
from __future__ import print_function
from pyspark import *
import os
print(os.environ['SPARK_HOME'])
print(os.environ['HADOOP_HOME'])
if __name__ == '__main__':
sc = SparkContext("local[8]")
rdd = sc.parallelize("hello Pyspark world".split(" "))
counts = rdd \
.flatMap(lambda line: line) \
.map(lambda word: (word, 1)) \
.reduceByKey(lambda a, b: a + b) \
.foreach(print)
sc.stop
问题:
from pyspark import *
找不到 pyspark。然后需要将spark bin包下的python全部拷贝过来(可能需要解压py4j)
%PYTHON%\Lib\site-packages下面去。这样,你的编辑器才能找到。
或者:
配置你的编辑器的环境变量:
PYTHONPATH=F:\home\spark-1.6.0-bin-hadoop2.6\python;F:\python2.7\Lib\site-packages
使用spark-submit提交时用到其他类库 –py-files xxxx/xxxx.zip,xxxx.py。
本文为原创文章,版权归知行编程网所有,欢迎分享本文,转载请保留出处!
你可能也喜欢
- ♥ python程序出错如何删除一行代码08/21
- ♥ PyCharm vs VSCode,是时候改变你的 IDE 了!01/03
- ♥ 如何确定python中多维数组中有多少列10/03
- ♥ 如何在python中实现一个简单的洗牌算法10/10
- ♥ Python中有多少关键字?09/15
- ♥ 一篇文章看懂python新式类和旧式类的区别01/03
内容反馈