









存储;运算;管理;














HaDoop软件包;
将软件包拉取到三个节点;

关闭防火墙及内核安全机制;

然后修改三个节点的主机名;分别是node1、2、3;

再修改hosts文件,方便用主机名进行解析;


如果考虑要扩展节点,那么要在该文件中写入新添加节点的主机名和IP地址;
创建运行hadoop时所需的账户及组;

为该用户设置密码,方便后续以该用户的身份执行程序;

然后对该用户进行单独设置权限;


然后再把java环境拉入到三个主机;
然后安装该软件包;

默认会安装到该路径下;

然后添加全局变量文件;
使得系统能够识别到jdk的环境;


重载一下文件,并测试;

以hsuser的身份登录进去,然后生成免密登录的密钥对;
仅在101主机上执行即可;
保持默认到最后即可;

然后拷贝到其他节点;

将hadoop的安装包,拷贝到hduser的家目录,并切换到该用户下进行解压;

将hadoop的命令追加到全局变量文件中;



另外两个节点以同样的方式写入即可;
然后查看hadoop的配置文件,首先以hduser的身份登录进入到解压目录下的etc;

该文件中写的是从节点(DataNode)的主机名;
如果要扩展的话,这个文件也是必改项;

下一个;

写入描黑的语句;管理主机的主机名及端口,和缓存目录的路径等信息;


输入一下描黑的信息;

然后将描黑的模版文件拷贝成可以使用的文件;


这个文件中定义的是yarn组件的信息;


该文件中定义yarn的进程要运行在哪个节点上;

然后以scp的方式拷贝给其他节点的相同位置下;


将hadoop进行一个初始化,进入到解压目录下的bin下;

然后启动hadoop;

然后验证一下;
正产情况下是要显示三行的内容的;

启动yarn组件;

查看报告内容;


hadoop为用户提供了web管理界面,再次验证;
注意指定端口:50070;


然后对hadoop进行性能测试;
创建一个测试用的目录,然后在生成测试文件;

然后进入到解压目录,将所有的组件都启动起来;

用该语句创建目录;
注意该目录没有创建在本机,是创建另外的一个存储区域、(hdfs);

然后再将创建的测试文件上传到该目录下;

然后可以查看该目录下的文件;

要求能够看到文件的内容;

使用以下语句进行字符统计;

