python文件为:

from pyspark import SparkConf, SparkContext
# 使用本地模式启动
conf = SparkConf().setMaster("local").setAppName("My App")
# 生成一个SparkContext对象
sc = SparkContext(conf=conf)
# 设置文件路径
logFile = "file:///data/bigfiles/test.txt"
# 读取README.md文件生成的RDD
logData = sc.textFile(logFile, 2).cache()
# 分别统计RDD元素中包含字母a和b的行数
numAS = logData.filter(lambda line: 'a' in line).count()
numBs = logData.filter(lambda line: 'b' in line).count()
# 打印输出结果
print('Lines with a: %s, Lines with b: %s' % (numAS, numBs))

使用pyspark运行时,报错下面内容 

解决办法 

这是因为没有初始化pyspark

所以在最前面添加以下代码,从而初始化pyspark

#添加此代码
import findspark
findspark.init()

保存后运行

运行成功!

Logo

汇聚全球AI编程工具,助力开发者即刻编程。

更多推荐