spark yum配置

yum配置

Yum是一个linux工具,用来从网络上下载安装软件到CentOS操作系统中。先要确保虚拟机的网络是通畅的。

(1)查看源

yum中的源是指它从哪里去下载软件。把yum想象成你自己开的一家商场,那么yum的源就是你的供货商。通过yum repolist 命令可以去查看当前的供货商信息。(如果显示源信息是mirrorlist.centos.org(默认源),那就不能使用了。这个源已经失效了,就是你的默认供货商跑路了!)

命令:yum repolist

(2)配置源

我们需要更换一个供货商,以便能正常下载软件。网络上的免费而稳定的源有很多,这里我们选择阿里云的源。

具体的命令是:

sudo curl -o /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos- 7.repo

有些系统命令不同eg:我的电脑只有下列命令可用:

sudo curl -o /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos- 7.repo

它其实是去修改了centos-base.repo这个文件。(yum 修改阿里云)

(3)再清空缓存,让配置生效

对应的命令是:

sudo yum clean all

sudo yum makecache

(4)测试是否配置成功。

下载一个常见工具试一试,如果能成功, 就证明这个操作完成了。

eg:使用命令 yum install tree

(五)使用yum安装必备工具

1 > 安装epel-release

Extra Packages for Enterprise Linux是为"红帽系"的操作系统提供额外的软件包,适用于RHEL、CentOS和Scientific Linux。相当于是一个软件仓库,大多数rpm包在官方 repository 中是找不到的)

命令: yum install -y epel-release

2 > 安装net-tool

net-tool:工具包集合,包含ifconfig等命令

命令:yum install -y net-tools

3 > 安装 vim:编辑器。它是一个增强版的vi编辑器。

命令:yum install -y vim

4 > 安装rsync。它可以用来和其他的服务器之间保持文件同步

命令: yum install -y rsync

(六)修改虚拟机的本机名

默认情况下,本机的名称叫:localhost。 我们进入linux系统之后,显示出来的就是 [root@localhost ~]# 。为了方便后面我们更加便捷地访问这台主机,可以重新给他取个名字:

具体的操作是打开/etc/hostname这个文件,并修改其中的内容。

命令是: vi /etc/hostname

使用vi修改之后,:wq保存退出,大家可以自行修改。

重新启动虚拟机(命令是:reboot)才能生效!!!eg:改名为hadoop100 你看到的就会是:[root@hadoop100 ~]#

(七)修改虚拟机的hosts配置

如果是win11,它在Windows/system32/hosts 文件,如果是win10,它在C:\Windows\System32\drivers\etc\hosts。

我们打开这个文件,并在最后一行的后边,添加三个新行,内容是:IP地址 主机名 eg:192.168.56.101 hadoop100(注:IP地址和主机名之间有一个空格)

相关推荐
GitCode官方3 小时前
科大讯飞星火科技文献大模型 Spark-Scilit-X1-13B 在 GitCode 开源,助力科研智能化革新!
科技·spark·gitcode
想ai抽8 小时前
大数据计算引擎-从源码看Spark AQE对于倾斜的处理
大数据·数据仓库·spark
菜鸡儿齐17 小时前
spark组件-spark core(批处理)-rdd创建
大数据·分布式·spark
B站_计算机毕业设计之家1 天前
python股票交易数据管理系统 金融数据 分析可视化 Django框架 爬虫技术 大数据技术 Hadoop spark(源码)✅
大数据·hadoop·python·金融·spark·股票·推荐算法
想ai抽1 天前
Spark的shuffle类型与对比
大数据·数据仓库·spark
阿里云大数据AI技术2 天前
从“开源开放”走向“高效智能”:阿里云 EMR 年度重磅发布
spark
随心............2 天前
yarn面试题
大数据·hive·spark
ZHOU_WUYI2 天前
Apache Spark 集群部署与使用指南
大数据·spark·apache
随心............3 天前
在开发过程中遇到问题如何解决,以及两个经典问题
hive·hadoop·spark