一、安装Spark
检查基础环境hadoop,jdk
下载spark
配置相关文件
配置环境变量
启动spark并运行python代码
def load_file(word_freq): # 读文件到缓冲区 try: # 打开文件 f = open(intext, 'r') except IOError as s: print(s) return None try: # 读文件到缓冲区 bvffer = f.read() except: print("ERROR!!") return None f.close() if bvffer: # 下面添加处理缓冲区 bvffer代码,统计每个单词的频率,存放在字典word_freq bvffer = bvffer.lower() for ch in '“‘!;,.?”': bvffer = bvffer.lower().replace(ch, " ") #将所有字母转换成小写,便于统计 words = bvffer.strip().split() #strip消除空白符,split以空格作为单词分界 for word in words: word_freq[word] = word_freq.get(word, 0)+1 #读取到的单词存放到字典 return word_freq def output_result(word_freq): if word_freq: sorted_word_freq = sorted(word_freq.items(), key=lambda v: v[1], reverse=True) for item in sorted_word_freq[:10]: # 输出 Top 10 的单词 print(item[0], item[1]) f = open(outtext, 'a') f.write(str(item[0]) + ' ' +str(item[1])) f.write('\n') f.close() if __name__ == "__main__": word_freq = {} intext = "text.txt" outtext = 'outtext.txt' a = load_file(word_freq) output_result(a)
1、准备文本
2、预处理:大小写,标点符号,停用词
4、结果写文件