Hadoop综合大作业:调用MapReduce对文件中各个单词出现次数进行统计

Hadoop综合大作业:调用MapReduce对文件中各个单词出现次数进行统计
实验配置:系统:Ubuntu Kylin | 环境:Hadoop | 软件:Eclipse

文章目录

一、作业要求

1.将待分析的文件(不少于10000英文单词)上传到HDFS
2.调用MapReduce对文件中各个单词出现的次数进行统计
3.将统计结果下载本地。
4.写一篇博客描述你的分析过程和分析结果。

二、安装VirtualBox虚拟机软件,在VirtualBox中安装Ubuntu

1.运行VirtulBox程序,点击“新建”按钮,新建一个虚拟机。

在这里插入图片描述

在这里插入图片描述

2.设定虚拟机的内存,此内存即为虚拟机所占用的系统内存,可随意修改,建议不要超过系统内存的1/2。
首先了解自己的笔记本电脑系统内存大小,“我的电脑”->“属性”。样机为16G。
然后设定虚拟机的大小,点击“下一步”。

在这里插入图片描述

3.为虚拟机创建一块虚拟硬盘。选择“现在创建虚拟硬盘”,并单击“创建”。

在这里插入图片描述

4.选择虚拟硬盘文件类型。选择认的VDI(VirtualBox磁盘映像),并单击“下一步”。

在这里插入图片描述

5.选择“动态扩展”,并单击“下一步”。
因为分配给虚拟机的内存空间较大,使用时逐渐占用磁盘空间,闲置时自动缩减比较合理,所以选择动态扩展类型。

在这里插入图片描述

6.输入虚拟硬盘文件名称,并选择保存位置。
选择虚拟硬盘大小时一定先确定保存所在位置磁盘的可用大小。可用空间为500G,虚拟硬盘大小设置为64G。单击“创建”

在这里插入图片描述

7.虚拟机创建完成。也就是说Ubuntu所需的硬件资源准备好了,相当于买了一个没有安装操作系统的电脑主机。
下载Ubuntu LTS 14.04的ISO映像文件,进入设置界面后,点击存储中的没有盘片,再点击光盘按钮,选择一个虚拟光驱,添加下载的Ubuntu LTS 14.04 ISO映像文件

在这里插入图片描述


在这里插入图片描述

在这里插入图片描述


在这里插入图片描述

8.选择刚创建的虚拟机Ubuntu,点击“启动”按钮。

在这里插入图片描述

9.选择刚才选择的ISO文件。弹出下图对话框,选择启动盘。单击右侧文件夹小图标。单击启动。

在这里插入图片描述

10.进入安装界面。 启动看到Ubuntu的安装欢迎界面。选择“中文简体”,选择安装ubuntu Kylin。

在这里插入图片描述

11.选择继续

在这里插入图片描述

12.安装类型选择其他选项。选择“清除整个磁盘并安装Ubuntu”单击“现在安装”

在这里插入图片描述

13.在弹出的“Write the changes to disks”选项中,会提示系统认采用的分区方式,此处直接采用认,点击继续即可;新建分区表。

在这里插入图片描述

14.弹出确认框,点击继续,再认城市,点击继续。

在这里插入图片描述

15.选择语言

在这里插入图片描述

16.设置用户名和密码(建议密码设置简单6位即可,每次开机或登录将使用密码),点击继续

在这里插入图片描述

17.接着进入安装界面,下面会显示安装进度

在这里插入图片描述

18.安装完成,重启。

在这里插入图片描述

19.重启之后进入登录页面,然后打开浏览器检查网络是否连接成功

在这里插入图片描述

三、准备工作

装好了 Ubuntu 系统之后,在安装 Hadoop 前还需要做一些必备工作

1.创建Hadoop用户

首先按 ctrl+alt+t 打开终端窗口,输入如下命令创建新用户 :

sudo useradd -m hadoop -s /bin/bash

这条命令创建了可以登陆的 hadoop 用户,并使用 /bin/bash 作为 shell。

2.设置hadoop的密码

接着使用如下命令设置密码,可简单设置为 hadoop,按提示输入两次密码:

sudo passwd hadoop

3.为hadoop用户增加管理员权限,方便部署

sudo adduser hadoop sudo

最后注销当前用户(点击屏幕右上角的齿轮,选择注销),返回登陆界面。在登陆界面中选择刚创建的 hadoop 用户进行登陆。

4.更新 apt

用 hadoop 用户登录后,先更新一下 apt,后续将使用 apt 安装软件,如果没更新可能有一些软件安装不了。按 ctrl+alt+t 打开终端窗口,执行如下命令:

sudo apt-get update

5.安装vim

后续需要更改一些配置文件,我采用的是 vim(vi增强版,基本用法相同)Vim是从vi发展出来的一个文本编辑器vim更适用于coding。

sudo apt-get install vim

安装软件时若需要确认,在提示处输入 y 即可。

6.安装SSH、配置SSH无密码登陆

集群、单节点模式都需要用到 SSH 登陆(类似于远程登陆,你可以登录某台 Linux 主机,并且在上面运行命令),Ubuntu 认已安装了 SSH client,此外还需要安装 SSH server

sudo apt-get install openssh-server

安装后,可以使用如下命令登陆本机:

ssh localhost

此时会有如下提示(SSH首次登陆提示),输入 yes 。然后按提示输入密码 hadoop,这样就登陆到本机了。

在这里插入图片描述

但这样登陆是需要每次输入密码的,我们需要配置成SSH无密码登陆比较方便。
首先退出刚才的 ssh,就回到了我们原先的终端窗口,然后利用 ssh-keygen 生成密钥,并将密钥加入到授权中:

exit            # 退出刚才的 ssh localhost
cd ~/.ssh/      # 若没有该目录,请先执行一次ssh localhost
ssh-keygen -t rsa     # 会有提示,都按回车就可以
cat ./id_rsa.pub >> ./authorized_keys  # 加入授权

此时再用 ssh localhost 命令,无需输入密码就可以直接登陆了,如下图所示。

在这里插入图片描述

四、安装Java环境

1.安装JDK

Hadoop2.7.1需要JDK版本在1.8及以上。需要按照下面步骤来手动安装JDK1.8。
这里已经把JDK1.8的安装包 jdk-8u162-linux-x64.tar.gz放在了百度云盘,可以点击这里到百度云盘下载(提取码:99bg)。请把压缩格式的文件jdk-8u162-linux-x64.tar.gz下载到本地电脑,如:“/home/yms/Downloads/”目录下
接下来在Linux命令行界面中,执行如下Shell命令(注意:当前登录用户名是hadoop):

cd /usr/lib
sudo mkdir jvm     #创建/usr/lib/jvm目录用来存放JDK文件
cd ~ #进入hadoop用户的主目录
cd Downloads       #注意区分大小写字母,刚才已经通过FTP软件把JDK安装包jdk-8u162-linux-x64.tar.gz上传到该目录下
sudo tar -zxvf ./jdk-8u162-linux-x64.tar.gz -C /usr/lib/jvm  #把JDK文件解压到/usr/lib/jvm目录下

2.验证JDK安装情况

JDK文件解压缩以后,可以执行如下命令到/usr/lib/jvm目录查看一下:

cd /usr/lib/jvm
ls

3.设置JAVA坏境变量

cd ~
vim ~/.bashrc

上面命令使用vim编辑器打开了hadoop这个用户的环境变量配置文件.bashrc文件,请在这文件的开头位置,添加如下几行内容:(vim编辑器中,按“i”进去编辑模式,从键盘输入“:wq”三个英文字母,然后回车,表示保存文件退出。)

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLAsspATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

保存.bashrc文件退出vim编辑器。然后,继续执行如下命令让.bashrc文件的配置立即生效:

source ~/.bashrc

验证安装情况使用如下命令查看是否安装成功:

java -version

如果能够在屏幕上返回如下信息,则说明安装成功,JAVA环境配置成功

在这里插入图片描述

五、在Ubuntu中安装Hadoop

Hadoop安装文件,可以到Hadoop官网下载hadoop-2.7.1.tar.gz。
也可以直接点击这里从百度云盘下载软件hadoop-2.7.1.tar.gz提取码:99bg)。下载完 Hadoop 文件后一般就可以直接使用。这里使用ftp上传至下载中:

在这里插入图片描述

选择将 Hadoop 安装至 /usr/local/ 中:

sudo tar -zxf ~/下载/hadoop-2.7.1.tar.gz -C /usr/local    # 解压到/usr/local中
cd /usr/local/
sudo mv ./hadoop-2.7.1/ ./hadoop    # 将文件夹名改为hadoop
sudo chown -R hadoop ./hadoop       # 修改文件权限

Hadoop 解压后即可使用。输入如下命令来检查 Hadoop 是否可用,成功则会显示 Hadoop 版本信息:

cd /usr/local/hadoop
./bin/hadoop version

(如图所示为hadoop可用的 2.7.1版本)


(hadoop的 2.7.1版本)

六、Hadoop伪分布式配置

1.修改配置文件

Hadoop 可以在单节点上以伪分布式的方式运行,Hadoop 进程以分离的 Java 进程来运行,节点既作为 NameNode 也作为 Datanode,同时,读取的是 HDFS 中的文件
Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式,每个配置以声明 property 的 name 和 value 的方式来实现。

cd /usr/local/hadoop/etc/hadoop/

在进行修改配置文件前,需要创建相应的文件夹进行存放,以防后面的操作中无法启动Hadoop

sudo mkdir /usr/local/hadoop/tmp
sudo mkdir /usr/local/hadoop/tmp/dfs/name
sudo mkdir /usr/local/hadoop/tmp/dfs/data

完成前面的工作后,开始配置core-site.xml 和 hdfs-site.xml。首先对core-site.xml进行修改

vim core-site.xml 

配置文件中找到如下标签对:

<configuration></configuration>

修改为下面配置:

<configuration>
 <property>
     <name>hadoop.tmp.dir</name>
     <value>file:/usr/local/hadoop/tmp</value>
     <description>Abase for other temporary directories.</description>
 </property>
   <property>
     <name>fs.defaultFS</name>
     <value>hdfs://localhost:9000</value>
   </property></configuration>

同样的,修改配置文件 hdfs-site.xml:

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>
</configuration>

2.格式化 NameNode

配置完core-site.xml 和 hdfs-site.xml,我们需要对NameNode进行格式化:

cd /usr/local/hadoop
./bin/hdfs namenode -format

成功的话,会看到 “successfully formatted” 的提示,具体返回信息类似如下:

2020-01-08 15:31:31,560 INFO namenode.NameNode: 
STARTUP_MSG: /************************************************************
	STARTUP_MSG: Starting NameNode
	STARTUP_MSG:   host = hadoop/127.0.1.1
	STARTUP_MSG:   args = [-format]
	STARTUP_MSG:  version = 3.1.3
*************************************************************/......2020-01-08 15:31:35,677 INFO common.Storage: Storage directory /usr/local/hadoop/tmp/dfs/name **has been successfully formatted**.2020-01-08 15:31:35,700 INFO namenode.FSImageFormatProtobuf: Saving image file /usr/local/hadoop/tmp/dfs/name/current/fsimage.ckpt_0000000000000000000 using no compression2020-01-08 15:31:35,770 INFO namenode.FSImageFormatProtobuf: Image file /usr/local/hadoop/tmp/dfs/name/current/fsimage.ckpt_0000000000000000000 of size 393 bytes saved in 0 seconds .2020-01-08 15:31:35,810 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 02020-01-08 15:31:35,816 INFO namenode.FSImage: FSImageSaver clean checkpoint: txid = 0 when meet shutdown.2020-01-08 15:31:35,816 INFO namenode.NameNode: SHUTDOWN_MSG:  /************************************************************
	SHUTDOWN_MSG: Shutting down NameNode at hadoop/127.0.1.1
*************************************************************/

如果在这一步时提示 Error: JAVA_HOME is not set and Could not be found. 的错误,则说明之前设置 JAVA_HOME 环境变量那边就没设置好,请按教程先设置好 JAVA_HOME 变量,否则后面的过程都是进行不下去的。如果已经按照前面教程在.bashrc文件中设置了JAVA_HOME,还是出现 Error: JAVA_HOME is not set and Could not be found. 的错误,那么,请到hadoop的安装目录修改配置文件*“/usr/local/hadoop/etc/hadoop/hadoop-env.sh”*,在里面找到“export JAVA_HOME=${JAVA_HOME}”这行,然后,把它修改成JAVA安装路径的具体地址,比如,“export JAVA_HOME=/usr/lib/jvm/default-java”,然后,再次启动Hadoop。

3.开启NameNode和Datanode守护进程

cd /usr/local/hadoop
./sbin/start-dfs.sh  #start-dfs.sh是个完整的可执行文件,中间没有空格

若出现如下SSH提示,输入yes即可。

启动Hadoop时的SSH提示

4.校验安装

启动完成后,可以通过命令jps来判断是否成功启动,若成功启动则会列出如下进程: “NameNode”、”Datanode” 和 “SecondaryNameNode”(如果 SecondaryNameNode 没有启动,请运行 sbin/stop-dfs.sh 关闭进程,然后再次尝试启动尝试)。如果没有 NameNode 或 Datanode ,那就是配置不成功,请仔细检查之前步骤,或通过查看启动日志排查原因。当程序启动完成后,可以通过命令 jps 来判断是否成功启动,若成功启动则会列出如下进程: “NameNode”、”Datanode” 和 “SecondaryNameNode”。

在这里插入图片描述

成功启动后,可以访问 Web 界面 http://localhost:50070查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件

在这里插入图片描述

七.调用MapReduce执行WordCount对单词进行计数

1.将待分析的文件上传到HDFS的准备工作

首先,准备一个不少于10000万单词的文本文件内容不限,文件命名:yms.txt(不少于10000英文单词)
将准备好的单词文件yms.txt上传到/home/hadoop文件下来进行本次的实验
命令为

cp  yms.txt /home/hadoop/
cd /home/hadoop/

图中 yms.txt 为实验文件

接着,将yms.txt上传到HDFS中(请确保Hadoop为开启状态)
进入hadoop目录并启动hadoop,并将hfp.txt从本机上传至 HDFS

cd /usr/local/hadoop
./sbin/start -dfs.sh
./bin/hdfs dfs -put /usr/local/hadoop/yms.txt  input

在这里插入图片描述


在这里插入图片描述

操作完成后调用ls命令查看hdfs input中的文件上传情况

./bin/hdfs dfs –ls input

上传成功后可以在文件中看到实验文件yms.txt

在这里插入图片描述

2.安装Eclipse

完成上传后,我们需要安装Eclipse。我们利用Ubuntu左侧边栏自带的软件中心安装软件,在右上角搜索栏中搜索 eclipse,在搜索结果中单击 eclipse,并点击安装。

在这里插入图片描述


在这里插入图片描述

下载后执行如下命令,将 Eclipse 安装至 /usr/lib 目录中:

sudo tar -zxf ~/下载/eclipse-java-mars-1-linux-gtk*.tar.gz -C /usr/lib

eclipse-java-mars-1-linux-gtk.tar.gz为文件名*
按实际情况输入安装完Eclipse,我们还需要安装 hadoop-eclipse-plugin,用于在 Eclipse 上编译和运行 MapReduce 程序,可下载 Github 上的hadoop2x-eclipse-plugin(备用下载地址:link.
http://pan.baidu.com/s/1i4ikIoP)。
下载后,将 release 中的 hadoop-eclipse-kepler-plugin-2.6.0.jar (还提供了 2.2.0 和 2.4.1 版本)复制到 Eclipse 安装目录的 plugins 文件夹中,运行 eclipse -clean 重启 Eclipse 即可(添加插件后只需要运行一次该命令,以后按照正常方式启动就行了)。

unzip -qo ~/下载/hadoop2x-eclipse-plugin-master.zip -d ~/下载    # 解压到 ~/下载 中
sudo cp ~/下载/hadoop2x-eclipse-plugin-master/release/hadoop-eclipse-plugin-2.6.0.jar /usr/lib/eclipse/plugins/    # 复制到 eclipse 安装目录的 plugins 目录下/usr/lib/eclipse/eclipse -clean    # 添加插件后需要用这种方式使插件生效

3. 在Eclipse中创建项目

首先,启动Eclipse,启动以后会弹出如下图所示界面,提示设置工作空间(workspace)。

在这里插入图片描述

可以直接采用认的设置“/home/hadoop/workspace”,点击“OK”按钮。可以看出,由于当前是采用hadoop用户登录了Linux系统,因此,认的工作空间目录位于hadoop用户目录“/home/hadoop”下。
Eclipse启动以后,呈现的界面如下图所示。

在这里插入图片描述

选择“File–>New–>Java Project”菜单,开始创建一个Java工程,弹出如下图所示界面。

在这里插入图片描述

在“Project name”后面输入工程名称“WordCount”,选中“Use default location”,让这个Java工程的所有文件都保存到“/home/hadoop/workspace/WordCount”目录下。在“JRE”这个选项卡中,可以选择当前的Linux系统中已经安装好的JDK,比如jdk1.8.0_162。然后,点击界面底部的“Next>”按钮,进入下一步的设置。

4.为项目添加需要用到的jar包

进入下一步的设置以后,会弹出如下图所示界面。

在这里插入图片描述

需要在这个界面中加载该Java工程所需要用到的jar包,这些jar包中包含了与Hadoop相关的Java API。这些jar包都位于Linux系统的Hadoop安装目录下,对于本教程而言,就是在“/usr/local/hadoop/share/hadoop”目录下。点击界面中的“Libraries”选项卡,然后,点击界面右侧的“Add External JARs…”按钮,弹出如下图所示界面。

在这里插入图片描述

在该界面中,上面有一排目录按钮(即“usr”、“local”、“hadoop”、“share”、“hadoop”、“mapreduce”和“lib”),当点击某个目录按钮时,就会在下面列出该目录的内容
为了编写一个MapReduce程序,一般需要向Java工程中添加以下jar包
(1)“/usr/local/hadoop/share/hadoop/common”目录下的hadoop-common-3.1.3.jar和haoop-nfs-3.1.3.jar;
(2)“/usr/local/hadoop/share/hadoop/common/lib”目录下的所有jar包
(3)“/usr/local/hadoop/share/hadoop/mapreduce”目录下的所有jar包,但是,不包括jdiff、lib、lib-examples和sources目录,具体如下图所示。

在这里插入图片描述

(4)“/usr/local/hadoop/share/hadoop/mapreduce/lib”目录下的所有jar包
比如,如果要把“/usr/local/hadoop/share/hadoop/common”目录下的hadoop-common-2.7.1.jar和haoop-nfs-2.7.1.jar添加到当前的Java工程中,可以在界面中点击相应的目录按钮,进入到common目录,然后,界面会显示出common目录下的所有内容(如下图所示)。

在这里插入图片描述

请在界面中用鼠标点击选中hadoop-common-2.7.1.jar和haoop-nfs-2.7.1.jar,然后点击界面右下角的“确定”按钮,就可以把这两个jar包增加到当前Java工程中,出现的界面如下图所示。

在这里插入图片描述

从这个界面中可以看出,hadoop-common-2.7.1.jar和haoop-nfs-2.7.1.jar已经被添加到当前Java工程中。然后,按照类似的操作方法,可以再次点击“Add External JARs…”按钮,把剩余的其他jar包添加进来。需要注意的是,当需要选中某个目录下的所有jar包时,可以使用“Ctrl+A”组合键进行全选操作。全部添加完毕以后,就可以点击界面右下角的“Finish”按钮,完成Java工程WordCount的创建。

5. 编写Java应用程序

下面编写一个Java应用程序,即WordCount.java。请在Eclipse工作界面左侧的“Package Explorer”面板中(如下图所示),找到刚才创建好的工程名称“WordCount”,然后在该工程名称上点击鼠标右键,在弹出的菜单中选择“New–>Class”菜单

在这里插入图片描述

选择“New–>Class”菜单以后会出现如下图所示界面。

在这里插入图片描述

在该界面中,只需要在“Name”后面输入新建的java类文件名称这里采用名称“WordCount”,其他都可以采用认设置,然后,点击界面右下角“Finish”按钮,出现如下图所示界面。

在这里插入图片描述

可以看出,Eclipse自动创建了一个名为“WordCount.java”的源代码文件,并且包含了代码“public class WordCount{}”,请清空该文件里面的代码,然后在该文件中输入完整的词频统计程序代码,具体如下:

import java.io.IOException;
import java.util.Iterator;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericoptionsParser;
public class WordCount {
    public WordCount() {
    }
     public static void main(String[] args) throws Exception {
        Configuration conf = new Configuration();
        String[] otherArgs = (new GenericoptionsParser(conf, args)).getRemainingArgs();
        if(otherArgs.length < 2) {
            System.err.println("Usage: wordcount <in> [<in>...] <out>");
            System.exit(2);
        }
        Job job = Job.getInstance(conf, "word count");
        job.setJarByClass(WordCount.class);
        job.setMapperClass(WordCount.TokenizerMapper.class);
        job.setCombinerClass(WordCount.IntSumReducer.class);
        job.setReducerClass(WordCount.IntSumReducer.class);
        job.setoutputKeyClass(Text.class);
        job.setoutputValueClass(IntWritable.class); 
        for(int i = 0; i < otherArgs.length - 1; ++i) {
            FileInputFormat.addInputPath(job, new Path(otherArgs[i]));
        }
        FileOutputFormat.setoutputPath(job, new Path(otherArgs[otherArgs.length - 1]));
        System.exit(job.waitForCompletion(true)?0:1);
    }
    public static class TokenizerMapper extends Mapper<Object, Text, Text, IntWritable> {
        private static final IntWritable one = new IntWritable(1);
        private Text word = new Text();
        public TokenizerMapper() {
        }
        public void map(Object key, Text value, Mapper<Object, Text, Text, IntWritable>.Context context) throws IOException, InterruptedException {
            StringTokenizer itr = new StringTokenizer(value.toString()); 
            while(itr.hasMoretokens()) {
                this.word.set(itr.nextToken());
                context.write(this.word, one);
            }
        }
    }
public static class IntSumReducer extends Reducer<Text, IntWritable, Text, IntWritable> {
        private IntWritable result = new IntWritable();
        public IntSumReducer() {
        }
        public void reduce(Text key, Iterable<IntWritable> values, Reducer<Text, IntWritable, Text, IntWritable>.Context context) throws IOException, InterruptedException {
            int sum = 0;
            IntWritable val;
            for(Iterator i$ = values.iterator(); i$.hasNext(); sum += val.get()) {
                val = (IntWritable)i$.next();
            }
            this.result.set(sum);
            context.write(key, this.result);
        }
    }}

6.编译打包程序

现在就可以编译上面编写的代码。可以直接点击Eclipse工作界面上部的运行程序的快捷按钮,当把鼠标移动到该按钮上时,在弹出的菜单中选择“Run as”,继续在弹出来的菜单中选择“Java Application”,如下图所示。

在这里插入图片描述

然后,会弹出如下图所示界面。

在这里插入图片描述

点击界面右下角的“OK”按钮,开始运行程序。程序运行结束后,会在底部的“Console”面板中显示运行结果信息(如下图所示)。

在这里插入图片描述

下面就可以把Java应用程序打包生成jar包,部署到Hadoop平台上运行。现在可以把词频统计程序放在“/usr/local/hadoop/myapp”目录下。如果该目录不存在,可以使用如下命令创建:

cd /usr/local/hadoop
mkdir myapp

首先,请在Eclipse工作界面左侧的“Package Explorer”面板中,在工程名称“WordCount”上点击鼠标右键,在弹出的菜单中选择“Export”,如下图所示。

在这里插入图片描述

然后,会弹出如下图所示界面。

在这里插入图片描述

在该界面中,选择“Runnable JAR file”,然后,点击“Next>”按钮,弹出如下图所示界面。

在这里插入图片描述

在该界面中,“Launch configuration”用于设置生成jar包被部署启动时运行的主类,需要在下拉列表中选择刚才配置的类“WordCount-WordCount”。在“Export destination”中需要设置jar包输出保存到哪个目录,比如,这里设置为“/usr/local/hadoop/myapp/WordCount.jar”。在“Library handling下面选择“Extract required libraries into generated JAR”。然后,点击“Finish”按钮,会出现如下图所示界面。

在这里插入图片描述

可以忽略该界面的信息,直接点击界面右下角的“OK”按钮,启动打包过程。打包过程结束后,会出现一个警告信息界面,如下图所示。

在这里插入图片描述

可以忽略该界面的信息,直接点击界面右下角的“OK”按钮。至此,已经顺利把WordCount工程打包生成了WordCount.jar。可以到Linux系统中查看一下生成的WordCount.jar文件,可以在Linux的终端中执行如下命令:

cd /usr/local/hadoop/myapp
ls

可以看到,“/usr/local/hadoop/myapp”目录下已经存在一个WordCount.jar文件

在这里插入图片描述

7. 运行程序

在运行程序之前,需要启动Hadoop,命令如下:

cd /usr/local/hadoop
./sbin/start-dfs.sh

然后,再在HDFS中新建与当前Linux用户hadoop对应的input目录,即“/user/hadoop/input”目录,具体命令如下:

cd /usr/local/hadoop
./bin/hdfs dfs -mkdir input

然后,把之前在Linux本地文件系统中新建的文件yms.txt,上传到HDFS中的“/user/hadoop/input”目录下,命令如下:
cd /usr/local/hadoop./bin/hdfs dfs -put ./yms.txt input
现在,就可以在Linux系统中,使用hadoop jar命令运行程序,命令如下:

cd /usr/local/hadoop
./bin/hadoop jar ./myapp/WordCount.jar input output

上面命令执行以后,当运行顺利结束时,屏幕上会显示类似如下的信息:

2020-01-27 10:10:55,157 INFO mapreduce.Job:  map 100% reduce 100%2020-01-27 10:10:55,159 INFO mapreduce.Job: Job job_local457272252_0001 completed successfully2020-01-27 10:10:55,174 INFO mapreduce.Job: Counters: 35
    File System Counters
        FILE: Number of bytes read=*
        FILE: Number of bytes written=*
        FILE: Number of read operations=*
        FILE: Number of large read operations=*
        FILE: Number of write operations=*
        HDFS: Number of bytes read=*
        HDFS: Number of bytes written=*
HDFS: Number of read operations=*
        HDFS: Number of large read operations=*
        HDFS: Number of write operations=*
    Map-Reduce Framework
        Map input records=*
        Map output records=*
        Map output bytes=*
        Map output materialized bytes=*
        Input split bytes=*
        Combine input records=*
        Combine output records=*
        Reduce input groups=*
        Reduce shuffle bytes=*
        Reduce input records=*
        Reduce output records=*
        Spilled Records=*
        Shuffled Maps =*
        Failed Shuffles=*
        Merged Map outputs=*
        GC time elapsed (ms)=*
        Total committed heap usage (bytes)=*
    Shuffle Errors
        BAD_ID=*
        CONNECTION=*
        IO_ERROR=*
        WRONG_LENGTH=*
        WRONG_MAP=*
        WRONG_REDUCE=*
    File Input Format Counters 
        Bytes Read=*
    File Output Format Counters 
        Bytes Written=*

注意:“ * ”非此处数值,按上传文本具体内容决定。
词频统计结果已经被写入了HDFS的“/user/hadoop/output”目录中,可以执行如下命令查看词频统计结果:

cd /usr/local/hadoop./bin/hdfs dfs -cat output/*

查看output文件夹是否有运行成功后生成文件

./bin/hdfs dfs -ls output

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

查看运行后生成的output/part-r-00000这个文件可以看到文件把单词统计结果统计好:

在这里插入图片描述

将output文件夹下载至本地:

./bin/hdfs dfs -get output ./output

执行完在hadoop/output下查看文件

在这里插入图片描述


在这里插入图片描述

在这里插入图片描述

查看part-r-00000文件

在这里插入图片描述


在这里插入图片描述


实验结束。

八.总结

本次实验操作下来,我学到了很多东西,从Ubuntu,hadoop,jdk,eclipse的安装再到WordCount执行的完成,每个步骤都让我掌握了一定的命令知识,更深入理解大数据,Hadoop是基于Java语言开发的,具有很好跨平台的特性。Hadoop的所要求系统环境适用于Windows,Linux,Mac系统。实验之后对linux的命令有了进一步的深入理解,我也发现自身的不足,以后会处于学习过程中,最后如果有错误的地方欢迎大家指出。

九.参考材料

[1] link.
http://dblab.xmu.edu.cn/blog/2481-2/
[2] link.
http://dblab.xmu.edu.cn/blog/290-2/
[3] link.
http://dblab.xmu.edu.cn/blog/285/
[4] link.
http://dblab.xmu.edu.cn/blog/hadoop-build-project-using-eclipse/

相关文章

hadoop搭建准备工作三台虚拟机:master、node1、node2检查时...
文件的更名和移动:    获取文件详细信息       遇...
目录一、背景1)小文件是如何产生的?2)文件块大小设置3)H...
目录一、概述二、HadoopDataNode多目录磁盘配置1)配置hdfs-...
平台搭建(伪分布式)伪分布式搭建在VM中搭建std-master修改...
 一、HDFS概述 1.1、HDFS产出背景及定义 1.1.1、HDFS产生...