hadoop_core-site.xml配置实例

hadoop3.2.3的高可用集群core-site.xml配置实例

xml 复制代码
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>


<configuration>
	
	<property>
		<!--Hadoop文件系统的默认URI,这里的默认访问地址是starcluster -->
		<name>fs.defaultFS</name>
		<value>hdfs://starcluster</value>
    </property>
	
	<property>
		<!--Hadoop临时文件的存储目录 -->
		<name>hadoop.tmp.dir</name>
		<value>file:/home/hadoop/tmp/hadoop/</value>
	</property>
	
	<property>
		<!--设置代理用户(root用户)可以访问Hadoop服务的主机和组 -->
		<name>hadoop.proxyuser.root.hosts</name>
		<value>*</value>
	</property>
	<property>
		<name>hadoop.proxyuser.root.groups</name>
		<value>*</value>
	</property>
	
	<property>
		<!--设置HDFS垃圾回收机制,文件将在垃圾桶中保留1440分钟后被永久删除 -->
		<name>fs.trash.interval</name>
		<value>1440</value>
	</property>

	<property>
		<!--设置HDFS垃圾回收机制,圾桶的检查点间隔是120分钟 -->
		<name>fs.trash.checkpoint.interval</name>
		<value>120</value>
	</property>
	
	<property>
		<!--设置ZooKeeper集群的地址和端口,用于Hadoop的高可用性配置 -->
		<name>ha.zookeeper.quorum</name>
		<value>kafka-1:2181,kafka-2:2181,kafka-3:2181</value>
	</property>
	
	<property>
		<!--用于设置代理用户(hadoop用户)可以访问Hadoop服务的主机和组 -->
		<name>hadoop.proxyuser.hadoop.hosts</name>
		<value>*</value>
	</property>
	<property>
		<!--只有hadoop组的用户可以通过hadoop用户代理访问Hadoop服务 -->
		<name>hadoop.proxyuser.hadoop.groups</name>
		<value>hadoop</value>
	</property>
	
	<property>
		<!--允许任何主机上的root用户通过代理访问Hadoop服务 -->
		<name>hadoop.proxyuser.root.hosts</name>
		<value>*</value>
	</property>
	
	<property>
		<!--只有属于hadoop组的root用户可以通过代理访问Hadoop服务 -->
		<name>hadoop.proxyuser.root.groups</name>
		<value>hadoop</value>
	</property>
	
	<property>
		<!--指定Hadoop支持的压缩编解码器列表 -->
		<name>io.compression.codecs</name>
		<value>org.apache.hadoop.io.compress.GzipCodec,
			 org.apache.hadoop.io.compress.DefaultCodec,
			 org.apache.hadoop.io.compress.BZip2Codec,
			 org.apache.hadoop.io.compress.SnappyCodec,
			 com.hadoop.compression.lzo.LzoCodec,
			 com.hadoop.compression.lzo.LzopCodec
		</value>
	</property>
	
	<property>
		<!--是否使用Snappy的本地库(native library)来进行压缩和解压缩操作 -->
		<name>io.compression.codec.snappy.native</name>
		<value>true</value>
	</property>
	
	<property>
		<!--指定LZO压缩编解码器的Java类名 -->
		<name>io.compression.codec.lzo.class</name>
		<value>com.hadoop.compression.lzo.LzoCodec</value>
	</property>
	
</configuration>
相关推荐
清晨00134 分钟前
工业生产实时数据获取方案-TDengine
大数据·时序数据库·tdengine
极创信息43 分钟前
信创产品认证怎么做?信创产品测试认证的主要流程
java·大数据·数据库·金融·软件工程
Elastic 中国社区官方博客1 小时前
Elastic 和 Cursor 合作 加速 上下文工程 与 coding agents
大数据·人工智能·elasticsearch·搜索引擎·全文检索
lzhdim2 小时前
SQL 入门 12:SQL 视图:创建、修改与可更新视图
java·大数据·服务器·数据库·sql
科研前沿2 小时前
镜像孪生VS视频孪生核心技术产品核心优势
大数据·人工智能·算法·重构·空间计算
lizhihai_993 小时前
股市学习心得-六张分时保命图
大数据·人工智能·学习
渣渣盟3 小时前
Flink 流处理那些事儿:状态、时间与容错
大数据·flink
CS创新实验室4 小时前
CS实验室行业报告:生物医药与生物工程行业就业分析报告
大数据·人工智能·生物医药
隐于花海,等待花开6 小时前
40.RAND 函数深度解析
hive·hadoop
无忧智库6 小时前
跨行业数据要素可信流通体系建设:打破信任壁垒的完整工程方法论(WORD)
大数据·人工智能