技术栈
伊犁linux 创建yum 源过程
沈艺强
2024-09-21 5:03
首先要创建yum 源这样后期的服务才能大面积部署
在su 用户下创建
清理缓存,一定要配置
这说明yum安装成功
linux
运维
服务器
上一篇:
无线感知会议系列【3】【基于WiFi和4G/5G的非接触无线感知:挑战、理论和应用-1】
下一篇:
[游戏技术]L4D服务器报错解决
相关推荐
宁zz
9 小时前
乌班图安装jenkins
运维
·
jenkins
无名之逆
10 小时前
Rust 开发提效神器:lombok-macros 宏库
服务器
·
开发语言
·
前端
·
数据库
·
后端
·
python
·
rust
大丈夫立于天地间
10 小时前
ISIS协议中的数据库同步
运维
·
网络
·
信息与通信
cg5017
10 小时前
Spring Boot 的配置文件
java
·
linux
·
spring boot
暮云星影
10 小时前
三、FFmpeg学习笔记
linux
·
ffmpeg
rainFFrain
10 小时前
单例模式与线程安全
linux
·
运维
·
服务器
·
vscode
·
单例模式
GalaxyPokemon
11 小时前
Muduo网络库实现 [九] - EventLoopThread模块
linux
·
服务器
·
c++
mingqian_chu
11 小时前
ubuntu中使用安卓模拟器
android
·
linux
·
ubuntu
xujiangyan_
12 小时前
nginx的反向代理和负载均衡
服务器
·
网络
·
nginx
热门推荐
01
我决定放弃搞 Java 了
02
DeepSeek各版本说明与优缺点分析
03
如何在WPS和Word/Excel中直接使用DeepSeek功能
04
【AUTOSAR 基础软件】Can模块详解(Can栈之驱动模块)
05
RAG 实践- Ollama+RagFlow 部署本地知识库
06
从零安装 LLaMA-Factory 微调 Qwen 大模型成功及所有的坑
07
Mac cursor设置jdk、Maven版本
08
本地化部署AI知识库:基于Ollama+DeepSeek+AnythingLLM保姆级教程
09
如何本地部署AI智能体平台,带你手搓一个AI Agent
10
纯离线部署本地知识库LLM大模型