Centos7 + Hadoop 3.3.4 HA高可用集群部署

目录

一、集群规划

二、主机环境准备

1、配置主机名

2、配置HOSTS

3、配置内核参数

4、配置Limits

5、关闭防火墙

6、关闭SELINUX

7、修改时区

8、修改中文支持

三、安装JDK

四、创建Hadoop用户

五、安装Zookeeper

1、下载安装

2、配置zoo.cfg

3、配置myid

4、启动/查看/停止服务

六、安装Hadoop

1、下载安装

2、配置hadoop-env.sh

3、配置core-site.xml

4、配置hdfs-site.xml

5、配置yarn-site.xml

6、配置mapred-site.xml

7、配置works

8、初始化ZKFC

9、初始化namenode

10、启动/查看/停止服务

[11、Web UI访问](#11、Web UI访问)


一、集群规划

本次测试采用3台虚拟机,操作系统版本为centos7.6。

Hadoop版本为3.3.4,其中Namenode采用HA高可用架构

Zookeeper版本为3.8.0

|-----------------|------------------|----------|-------------------------------|----------------------------------------|
| IP地址 | 主机名 | ZK | HDFS | YARN |
| 192.168.121.101 | node101.cc.local | server.1 | NameNode DataNode JournalNode | ResourceManager NodeManager JobHistory |
| 192.168.121.102 | node102.cc.local | server.2 | NameNode DataNode JournalNode | ResourceManager NodeManager |
| 192.168.121.103 | node103.cc.local | server.3 | DataNode JournalNode | NodeManager |

二、主机环境准备

1、配置主机名

在node1节点均执行操作

hostnamectl set-hostname node101.cc.local

在node2节点均执行操作

hostnamectl set-hostname node102.cc.local

在node3节点均执行操作

hostnamectl set-hostname node103.cc.local

2、配置HOSTS

在每个节点均执行操作

cat << EOF > /etc/hosts

127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4

::1 localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.121.101 node101.cc.local node101

192.168.121.102 node102.cc.local node102

192.168.121.103 node103.cc.local node103

EOF

3、配置内核参数

在每个节点均执行操作

提示:这一步非必须,可后续调优时进行设置

cat << EOF > /etc/sysctl.conf

net.ipv4.ip_forward=1

net.ipv4.tcp_syncookies = 1

net.ipv4.tcp_timestamps = 0

net.ipv4.tcp_tw_reuse = 0

net.ipv4.tcp_tw_recycle = 0

net.ipv4.tcp_fin_timeout = 15

net.ipv4.tcp_max_tw_buckets = 262144

net.core.somaxconn = 65535

net.core.netdev_max_backlog = 262144

net.ipv4.tcp_sack = 0

net.ipv4.tcp_window_scaling = 0

net.core.rmem_default=4194304

net.core.rmem_max=4194304

net.core.wmem_default=262144

net.core.wmem_max=1048586

fs.suid_dumpable = 1

fs.aio-max-nr = 1048576

fs.file-max = 6815744

kernel.shmmni = 4096

kernel.sem = 250 32000 100 128

vm.swappiness = 0

net.ipv4.ip_local_port_range = 9500 61000

net.ipv4.neigh.default.gc_thresh1=1024

net.ipv4.neigh.default.gc_thresh2=2048

net.ipv4.neigh.default.gc_thresh3=4096

net.ipv6.conf.all.disable_ipv6 = 1

net.ipv6.conf.default.disable_ipv6 = 1

net.ipv6.conf.lo.disable_ipv6 = 1

EOF

sysctl -p

4、配置Limits

在每个节点均执行操作

提示:这一步非必须,可后续调优时进行设置

echo "####Limits Parameter Configuration####"

cat << EOF > /etc/security/limits.conf

* soft nofile 655350

* hard nofile 655350

* soft nproc 655350

* hard nproc 655350

EOF

sed -i.bakDATE '/\^\*/{s/\[0-9\]\*/655350/g}' /etc/security/limits.d/20-nproc.conf

sed -i.bak$DATE '/DefaultLimitNOFILE/c DefaultLimitNOFILE=655350' /etc/systemd/system.conf

sed -i.bak$DATE '/DefaultLimitNOFILE/c DefaultLimitNOFILE=655350' /etc/systemd/user.conf

systemctl daemon-reexec

echo never > /sys/kernel/mm/transparent_hugepage/enabled

echo never > /sys/kernel/mm/transparent_hugepage/defrag

echo "####Limits Parameter Configuration Done####"

echo -e "\n"

5、关闭防火墙

在每个节点均执行操作

systemctl stop firewalld.service

systemctl disable firewalld.service

6、关闭SELINUX

在每个节点均执行操作

sed -i.bak$DATE '/^SELINUX=/c SELINUX=disabled' /etc/selinux/config

setenforce 0

7、修改时区

在每个节点均执行操作

timedatectl set-timezone "Asia/Shanghai"

8、修改中文支持

在每个节点均执行操作

cat << EOF > /etc/locale.conf

LANG="en_US.UTF-8"

SUPPORTED="zh_CN.UTF-8:zh_CN:zh:zh_CN.gb18030:en_US.UTF-8:en_US:en"

EOF

三、安装JDK

前提:各节点可以访问公网或者已配置好YUM源

注意:建议安装openjdk-devel包,非devel没有jps等命令

在每个节点均执行操作

安装openjdk

yum install -y java-1.8.0-openjdk-devel.x86_64

配置环境变量

注意:由于采用脚本配置环境变量文件,所以对"$"符号前需要增加"\"转义符

cat << EOF > /etc/profile.d/openjdk1_8_0.sh

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk

export CLASSPATH=\CLASSPATH:\\JAVA_HOME/lib/

export PATH=\PATH:\\JAVA_HOME/bin

EOF

生效最新环境变量

source /etc/profile

四、创建Hadoop用户

提示:创建hadoop用户用于运行整个hadoop集群相关服务

在每个节点均执行操作

echo "####create hadoop user####"

groupadd -g 1024 hadoop

useradd -g hadoop -u 1024 -d /home/hadoop hadoop

echo hadoop:hadppwd | chpasswd

echo "####create hadoop user Done####"

创建hadoop安装目录

mkdir -p /opt/hadoop

切换登录到hadoop用户

su - hadoop

生成hadoop用户秘钥##

mkdir ~/.ssh

chmod 700 ~/.ssh

cd ~/.ssh

ssh-keygen

###分发秘钥至所有节点 ###

ssh-copy-id node101

ssh-copy-id node102

ssh-copy-id node103

五、安装Zookeeper

1、下载安装

在每个节点均执行操作

echo "####install zk####"

进入hadoop安装目录

cd /opt/hadoop

下载zk安装包到安装目录

wget https://dlcdn.apache.org/zookeeper/zookeeper-3.8.0/apache-zookeeper-3.8.0-bin.tar.gz --no-check-certificate

解压zk安装包

tar -zxvf apache-zookeeper-3.8.0-bin.tar.gz

配置zk环境变量

注意:由于采用脚本配置环境变量文件,所以对"$"符号前需要增加"\"转义符

cat << EOF > /etc/profile.d/zk3_8_0.sh

export ZOOKEEPER_HOME=/opt/hadoop/apache-zookeeper-3.8.0-bin/

export PATH=\PATH:\\ZOOKEEPER_HOME/bin

EOF

生效最新环境变量

source /etc/profile

创建zk数据目录

mkdir $ZOOKEEPER_HOME/data

2、配置zoo.cfg

在每个节点均执行操作

cat << EOF > conf/zoo.cfg

tickTime:Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。tickTime以毫秒为单位。session最小有效时间为tickTime*2

tickTime=2000

Zookeeper保存数据的目录,默认情况下,Zookeeper将写数据的日志文件也保存在这个目录里。不要使用/tmp目录

dataDir=/opt/hadoop/apache-zookeeper-3.8.0-bin/data

端口,默认就是2181

clientPort=2181

集群中的follower服务器(F)与leader服务器(L)之间初始连接时能容忍的最多心跳数(tickTime的数量),超过此数量没有回复会断开链接

initLimit=10

集群中的follower服务器与leader服务器之间请求和应答之间能容忍的最多心跳数(tickTime的数量)

syncLimit=5

最大客户端链接数量,0不限制,默认是0

maxClientCnxns=60

zookeeper集群配置项,server.1,server.2,server.3是zk集群节点;node1,node2,node3是主机名称;2888是主从通信端口;3888用来选举leader

server.1=node101.cc.local:2888:3888

server.2=node102.cc.local:2888:3888

server.3=node103.cc.local:2888:3888

EOF

3、配置myid

在node1节点均执行操作

echo 1 > $ZOOKEEPER_HOME/data/myid

在node2节点均执行操作

echo 2 > $ZOOKEEPER_HOME/data/myid

在node3节点均执行操作

echo 3 > $ZOOKEEPER_HOME/data/myid

4、启动/查看/停止服务

启动服务

zkServer.sh start

查看服务状态

zkServer.sh status

停止服务

zkServer.sh status

六、安装Hadoop

1、下载安装

在每个节点均执行操作

echo "####install hadoop####"

进去hadoop安装目录

cd /opt/hadoop

下载hadoop安装包

wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz --no-check-certificate

解压hadoop安装包

tar -zxvf hadoop-3.3.4.tar.gz

创建hadoop的临时目录、数据目录和日志目录

cd /opt/hadoop/hadoop-3.3.4 && mkdir tmp data logs

创建hadoop的数据目录

mkdir /opt/hadoop/hadoop-3.3.4/data/namenode journalnode datanode

修改hadoop安装目录权限给hadoop用户

chown -R hadoop:hadoop /opt/hadoop

配置hadoop环境变量

注意:由于采用脚本配置环境变量文件,所以对"$"符号前需要增加"\"转义符

cat << EOF > /etc/profile.d/hadoop3_3_4.sh

export HADOOP_HOME=/opt/hadoop/hadoop-3.3.4

export HADOOP_LOG_DIR=\$HADOOP_HOME/logs

export PATH=\PATH:\\HADOOP_HOME/bin:\$HADOOP_HOME/sbin

EOF

生效最新环境变量

source /etc/profile

2、配置hadoop-env.sh

在每个节点均执行操作

配置 hadoop-3.3.4/etc/hadoop/hadoop-env.sh

cat << EOF >> /opt/hadoop/hadoop-3.3.4/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk

export HADOOP_PID_DIR=/opt/hadoop/hadoop-3.3.4/tmp/

export HDFS_NAMENODE_USER=hadoop

export HDFS_DATANODE_USER=hadoop

export HDFS_SECONDARYNAMENODE_USER=hadoop

export YARN_RESOURCEMANAGER_USER=hadoop

export YARN_NODEMANAGER_USER=hadoop

EOF

3、配置core-site.xml

编辑hadoop-3.3.4/etc/hadoop/core-site.xml

在每个节点均执行操作

###提示:通过vi手工修改<configuration></configuration>中的内容 ###

<configuration>

<!-- 设置默认使用的文件系统 Hadoop支持file、HDFS、GFS等文件系统 -->

<property>

<name>fs.defaultFS</name>

<value>hdfs://ccns</value>

</property>

<!-- 设置Hadoop临时目录路径 -->

<property>

<name>hadoop.tmp.dir</name>

<value>/opt/hadoop/tmp</value>

</property>

<!-- 指定zookeeper地址 -->

<property>

<name>ha.zookeeper.quorum</name>

<value>node101.cc.local:2181,node102.cc.local:2181,node103.cc.local:2181</value>

</property>

<!-- 设置Hadoop本地保存数据路径 -->

<property>

<name>hadoop.data.dir</name>

<value>/opt/hadoop/data</value>

</property>

<!-- 设置HDFS web UI用户身份 -->

<property>

<name>hadoop.http.staticuser.user</name>

<value>hadoop</value>

</property>

<!-- 配置该root允许通过代理访问的主机节点 -->

<property>

<name>hadoop.proxyuser.root.hosts</name>

<value>*</value>

</property>

<!-- 配置该root允许代理的用户所属组 -->

<property>

<name>hadoop.proxyuser.root.groups</name>

<value>*</value>

</property>

<!-- 配置该root允许代理的用户 -->

<property>

<name>hadoop.proxyuser.root.users</name>

<value>*</value>

</property>

<!-- 对于每个<root>用户,hosts必须进行配置,而groups和users至少需要配置一个。-->

<!-- 文件系统垃圾桶保存时间 -->

<property>

<name>fs.trash.interval</name>

<value>1440</value>

</property>

</configuration>

4、配置hdfs-site.xml

编辑hadoop-3.3.4/etc/hadoop/hdfs-site.xml

在每个节点均执行操作

###提示:通过vi手工修改<configuration></configuration>中的内容 ###

<configuration>

<!--执行hdfs的nameservice为ns,注意要和core-site.xml中的名称保持一致 -->

<property>

<name>dfs.nameservices</name>

<value>ccns</value>

</property>

<!-- nameservice包含的namenode,ns集群下有两个namenode,分别为nn1, nn2 -->

<property>

<name>dfs.ha.namenodes.ccns</name>

<value>nn1,nn2</value>

</property>

<!-- nn1的rpc地址和端口号,rpc用来和datanode通讯,默认值:9000-->

<property>

<name>dfs.namenode.rpc-address.ccns.nn1</name>

<value>node101.cc.local:9000</value>

</property>

<!-- nn2的rpc地址和端口号,rpc用来和datanode通讯,默认值:9000-->

<property>

<name>dfs.namenode.rpc-address.ccns.nn2</name>

<value>node102.cc.local:9000</value>

</property>

<!-- nn1的http地址和端口号,web客户端 -->

<property>

<name>dfs.namenode.http-address.ccns.nn1</name>

<value>node101.cc.local:9870</value>

</property>

<!-- nn2的http地址和端口号,web客户端 -->

<property>

<name>dfs.namenode.http-address.ccns.nn2</name>

<value>node102.cc.local:9870</value>

</property>

<!-- 指定namenode的元数据在JournalNode上存放的位置,namenode2可以从journalnode集群里的指定位置上获取信息,达到热备效果 -->

<property>

<name>dfs.namenode.shared.edits.dir</name>

<value>qjournal://node101.cc.local:8485;node102.cc.local:8485;node103.cc.local:8485/ccns</value>

</property>

<!-- 配置失败自动切换实现方式,客户端连接可用状态的NameNode所用的代理类,默认值:org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider -->

<property>

<name>dfs.client.failover.proxy.provider.ccns</name>

<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

</property>

<!-- 配置隔离机制,HDFS的HA功能的防脑裂方法。建议使用sshfence(hadoop:9922),括号内的是用户名和端口,注意,2台NN之间可免密码登陆.sshfences是防止脑裂的方法,保证NN中仅一个是Active的,如果2者都是Active的,新的会把旧的强制Kill -->

<property>

<name>dfs.ha.fencing.methods</name>

<value>sshfence</value>

</property>

<!-- 开启NameNode失败自动切换 -->

<property>

<name>dfs.ha.automatic-failover.enabled</name>

<value>true</value>

</property>

<!-- 配置失败自动切换实现方式 -->

<property>

<name>dfs.client.failover.proxy.provider.ccns</name>

<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

</property>

<!-- 指定上述选项ssh通讯使用的密钥文件在系统中的位置 -->

<property>

<name>dfs.ha.fencing.ssh.private-key-files</name>

<value>/root/.ssh/id_rsa</value>

</property>

<!-- 指定JournalNode在本地磁盘存放数据的位置。 -->

<property>

<name>dfs.journalnode.edits.dir</name>

<value>/opt/hadoop/hadoop-3.3.4/data/journalnode</value>

</property>

<!--配置namenode存放元数据的目录,默认放到hadoop.tmp.dir下-->

<property>

<name>dfs.namenode.name.dir</name>

<value>file:///opt/hadoop/hadoop-3.3.4/data/namenode</value>

</property>

<!--配置datanode存放元数据的目录,默认放到hadoop.tmp.dir下-->

<property>

<name>dfs.datanode.data.dir</name>

<value>file:///opt/hadoop/hadoop-3.3.4/data/datanode</value>

</property>

<!-- 副本数量配置 -->

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

<!--设置用户的操作权限,false表示关闭权限验证,任何用户都可以操作-->

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

</configuration>

5、配置yarn-site.xml

编辑hadoop-3.3.4/etc/hadoop/yarn-site.xml

在每个节点均执行操作

###提示:通过vi手工修改<configuration></configuration>中的内容 ###

<configuration>

<!--开启ResourceManager HA功能-->

<property>

<name>yarn.resourcemanager.ha.enabled</name>

<value>true</value>

</property>

<!--标志ResourceManager-->

<property>

<name>yarn.resourcemanager.cluster-id</name>

<value>ccyarn</value>

</property>

<!--集群中ResourceManager的ID列表,后面的配置将引用该ID-->

<property>

<name>yarn.resourcemanager.ha.rm-ids</name>

<value>rm1,rm2</value>

</property>

<!-- 设置YARN集群主角色运行节点rm1-->

<property>

<name>yarn.resourcemanager.hostname.rm1</name>

<value>node101.cc.local</value>

</property>

<!-- 设置YARN集群主角色运行节点rm2-->

<property>

<name>yarn.resourcemanager.hostname.rm2</name>

<value>node102.cc.local</value>

</property>

<!--ResourceManager1的Web页面访问地址-->

<property>

<name>yarn.resourcemanager.webapp.address.rm1</name>

<value>node101.cc.local:8088</value>

</property>

<!--ResourceManager2的Web页面访问地址-->

<property>

<name>yarn.resourcemanager.webapp.address.rm2</name>

<value>node102.cc.local:8088</value>

</property>

<!--ZooKeeper集群列表-->

<property>

<name>hadoop.zk.address</name>

<value>node101.cc.local:2181,node102.cc.local:2181,node103.cc.local:2181</value>

</property>

<!--启用ResouerceManager重启的功能,默认为false-->

<property>

<name>yarn.resourcemanager.recovery.enabled</name>

<value>true</value>

</property>

<!--用于ResouerceManager状态存储的类-->

<property>

<name>yarn.resourcemanager.store.class</name>

<value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<!-- 是否将对容器实施物理内存限制 -->

<property>

<name>yarn.nodemanager.pmem-check-enabled</name>

<value>false</value>

</property>

<!-- 是否将对容器实施虚拟内存限制 -->

<property>

<name>yarn.nodemanager.vmem-check-enabled</name>

<value>false</value>

</property>

<!-- 开启日志聚集功能 -->

<property>

<name>yarn.log-aggregation-enable</name>

<value>true</value>

</property>

<!-- 设置日志聚集服务器地址 -->

<property>

<name>yarn.log.server.url</name>

<value>http://node101:19888/jobhistory/logs\</value>

</property>

<!-- 设置日志保留时间为7天 -->

<property>

<name>yarn.log-aggregation.retain-seconds</name>

<value>604800</value>

</property>

</configuration>

6、配置mapred-site.xml

编辑hadoop-3.3.4/etc/hadoop/mapred-site.xml

在每个节点均执行操作

###提示:通过vi手工修改<configuration></configuration>中的内容 ###

<configuration>

<!-- 设置MR程序默认运行模式,yarn集群模式,local本地模式 -->

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<!-- 历史服务器端地址 -->

<property>

<name>mapreduce.jobhistory.address</name>

<value>node101:10020</value>

</property>

<!-- 历史服务器web端地址 -->

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>node101:19888</value>

</property>

<!-- map环境变量 -->

<property>

<name>mapreduce.map.env</name>

<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>

</property>

<!-- reduce环境变量 -->

<property>

<name>mapreduce.reduce.env</name>

<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>

</property>

</configuration>

7、配置works

在每个节点均执行操作

配置 hadoop-3.3.4/etc/hadoop/workers

cat << EOF > /opt/hadoop/hadoop-3.3.4/etc/hadoop/workers

node101.cc.local

node102.cc.local

node103.cc.loca

EOF

8、初始化ZKFC

选择任何一个节点上执行均可,此次选择在node1节点上执行

前提:已正常启动zookeeper

初始化zk

hdfs zkfc -formatZK

9、初始化namenode

每个节点分别启动 journalnode

hdfs --daemon start journalnode

初始化主namenode,此次选择node1为主namenode

hdfs namenode -format

启动主namenode

hdfs --daemon start namenode

初始化从namenode,此次node2为从namenode

hdfs namenode -bootstrapStandby

10、启动/查看/停止服务

一键启动全部hadoop服务

一键启动选择任何一个节点上执行均可,此次选择在node1节点上执行

start-all.sh

#一键启动HDFS

一键启动选择任何一个节点上执行均可,此次选择在node1节点上执行

start-dfs.sh

#一键启动yarn

一键启动选择任何一个节点上执行均可,此次选择在node1节点上执行

start-yarn.sh

#启动HDFS单个服务进程

hdfs --daemon start namenode|datanode|journalnode|zkfc

启动YARN单个服务进程

yarn --daemon start resourcemanager|nodemanager

#启动历史服务进程(这必须单独启动)

mapred --daemon start historyserver

#查看服务

jps

一键停止全部hadoop服务

一键停止选择任何一个节点上执行均可,此次选择在node1节点上执行

stop-all.sh

#一键停止HDFS

一键停止选择任何一个节点上执行均可,此次选择在node1节点上执行

stop-dfs.sh

#一键停止yarn

一键停止选择任何一个节点上执行均可,此次选择在node1节点上执行

stop-yarn.sh

#停止HDFS单个服务进程

hdfs --daemon stop namenode|datanode|journalnode|zkfc

停止YARN单个服务进程

yarn --daemon stop resourcemanager|nodemanager

11、Web UI访问

HDFS集群Web UI默认端口9870,访问地址为namenode的IP地址

node1:http://192.168.121.101:9870

node2:http://192.168.121.102:9870

注意:

1、由于配置了HA高可用模式,所以每个namenode都可以打开,首页会显示namenoded的状态是active或standby,当通过Web UI去访问hdfs目录时,必须选择active的namenode;

2、在windows上使用web ui上传文件时,由于没法识别node101.cc.local,node102.cc.local,node103.cc.local,所以上传文件会失败,只需要在windows的hosts文件加上对应的解析就可以正常操作了。
Yarn集群WEB Ui默认端口8088,访问地址为resourcemanager的IP地址

node1:http://192.168.121.101:8088/

node2:http://192.168.121.102:8088/

注意:只有一个resourcemanager是active的,当访问到从resourcemanager时,页面会自动跳转至active的resourcemanager的Web地址,但由于windows上没法识别node101.cc.local,node102.cc.local,node103.cc.local,所以会造成页面无法打开,只需要在windows的hosts文件加上对应的解析就可以正常操作,或者直接打开active的resourcemanager的Web地址即可

相关推荐
哲讯智能科技15 小时前
苏州SAP代理商:哲讯科技助力企业数字化转型
大数据·运维·人工智能
云淡风轻~~15 小时前
Hadoop HDFS存储机制与块大小选择权衡
hadoop·hdfs
Edingbrugh.南空15 小时前
Apache Iceberg与Hive集成:分区表篇
大数据·hive·hadoop
武子康15 小时前
大数据-13-Hive 启动Hive DDL DML 增删改查 操作Hive的HQL
大数据·后端
Cachel wood17 小时前
后端开发:计算机网络、数据库常识
android·大数据·数据库·数据仓库·sql·计算机网络·mysql
得物技术17 小时前
得物社区活动:组件化的演进与实践
java·大数据·前端
Elastic 中国社区官方博客18 小时前
使用 Azure LLM Functions 与 Elasticsearch 构建更智能的查询体验
大数据·人工智能·elasticsearch·microsoft·搜索引擎·全文检索·azure
刘天远19 小时前
深度解析企业风控API技术实践:构建全方位企业风险画像系统
大数据·数据库·数据分析
后院那片海19 小时前
GFS分布式文件系统
大数据·服务器·数据库
IT_102420 小时前
Spring Boot的Security安全控制——应用SpringSecurity!
大数据·spring boot·后端