spark 常见操作命令

配置虚拟机

配置即让自己的虚拟机可以联网,和别的虚拟机通讯

一、配置vm虚拟机网段。

具体设置为:虚拟机左上角点击编辑→虚拟网络编辑器

选择VMnet8, 要改动两个地方(注意:它会需要管理员权限):

  1. 子网IP改成192.168.10.0

  2. NAT设置 → 192.168.10.2

让所有的VM配置的虚拟机使用NAT时,它们的网段都是一致的。

注意:这里的第三个部分的10并不是固定的,我们自己可以约定,但是约定之后就要固定下来。

二、 配置Windows本地虚拟网卡,让本机也可以访问虚拟机。

具体设置为:选择控制面板 → 网络连接 → VMware network Adapter Vmnet8

点击右键,IP4协议,改成如下:

IP4地址:192.168.10.1

IPV4网关:192.168.10.2

这里要注意一下:VMware net work Adpater VMnet8是安装了Vm这个软件之后会自动产生的。

三、设置虚拟机hadoop100的IP。

具体设置为:进入虚拟机,修改对应的IP。

(1)vi /etc/sysconfig/network-scripts/ifcfg-ens33

通过vi编辑器去修改配置文件(ip地址)

修改完成之后,esc退出编辑模式, :wq 保存退出。

四、重启系统并检查是否能Ping通外网。

重启的命令是reboot,检查是否能Ping通外网。命令是:ping www.baidu.com

reboot 重启。

再登录,通过ping 命令检查是否能连接外网 (若要断开连接按ctrl+c)

(1) 修改主机名称。命令是:vi /etc/hostname

eg:修改打开的文件内容为: hadoop100

注:它不会立马生效,需要重启系统才生效!

(2)配置IP地址和主机名的映射。命令是:vi /etc/hosts

在这个文件的最后一行添加一句:

IP地址 +主机名

eg:192.168.10.100 hadoop100

(3) 最后,关闭服务器的防火墙。对应的命令是:

systemctl stop firewalld

systemctl disable firewalld.service

(4) 重启

reboot

finalShell软件

作用:链接远程VM

一、安装finalShell

二、启动连接VM

相关推荐
随心............13 小时前
在开发过程中遇到问题如何解决,以及两个经典问题
hive·hadoop·spark
Q26433650232 天前
【有源码】基于Python与Spark的火锅店数据可视化分析系统-基于机器学习的火锅店综合竞争力评估与可视化分析-基于用户画像聚类的火锅店市场细分与可视化研究
大数据·hadoop·python·机器学习·数据分析·spark·毕业设计
潘达斯奈基~2 天前
spark性能优化1:通过依赖关系重组优化Spark性能:宽窄依赖集中处理实践
大数据·性能优化·spark
蒙特卡洛的随机游走3 天前
Spark核心数据(RDD、DataFrame 和 Dataset)
大数据·分布式·spark
蒙特卡洛的随机游走3 天前
Spark的宽依赖与窄依赖
大数据·前端·spark
Lansonli3 天前
大数据Spark(六十九):Transformation转换算子intersection和subtract使用案例
大数据·分布式·spark
励志成为糕手3 天前
宽依赖的代价:Spark 与 MapReduce Shuffle 的数据重分布对比
大数据·spark·mapreduce·分布式计算·sortshuffle
weixin_525936333 天前
部分Spark SQL编程要点
大数据·python·sql·spark
智海观潮4 天前
学好Spark必须要掌握的Scala技术点
大数据·spark·scala
数智顾问5 天前
破解 Shuffle 阻塞:Spark RDD 宽窄依赖在实时特征工程中的实战与未来
大数据·分布式·spark