你是否也曾被"龟速"所困扰?
作为开发者、数据科学家或运维工程师,我们每天都在与海量的开源资源打交道。但你是否也曾遇到过这些令人头疼的场景?
- 克隆代码等到地老天荒 :
git clone
一个稍大的 GitHub/GitLab 储存库,进度条半天不动,最后因网络波动而前功尽弃。 - 模型/数据集下载遥遥无期:从 Hugging Face 下载动辄数十 GB 的模型权重或数据集,耗时数小时,严重拖慢了研发进度。
- 依赖安装过程漫长 :执行
npm install
、pip install
或conda install
时,下载依赖包的速度缓慢,构建过程漫长无比。 - 容器镜像拉取效率低下 :
docker pull
一个基础镜像,却因为网络问题迟迟无法完成,阻碍了开发和部署流程。 - 配置繁琐且不稳定:为不同平台寻找和配置各自的代理或镜像源,过程繁琐,且服务质量参差不齐,时常需要切换。
如果这些痛点让你感同身受,那么 Xget 将是你的终极解决方案。它是一款超高性能、安全可靠的一站式开源资源获取加速引擎,旨在彻底解决上述所有问题,为你的开发工作流带来革命性的效率提升。
核心优势:为什么选择 Xget?
Xget 并非简单的代理工具,而是一个集现代化网络技术、企业级安全实践和广泛平台兼容性于一体的综合性加速引擎。
1. 极致的性能:突破传统加速器瓶颈
Xget 的设计哲学就是"快",它通过多维度技术优化,实现了远超传统加速器的性能表现。
- 全球边缘网络:基于 Cloudflare 遍布全球 330+ 个城市的边缘网络,Xget 能够将内容缓存至离你最近的节点,实现平均低于 50ms 的毫秒级响应。
- 现代化技术栈 :全面启用 HTTP/3 协议,相比传统 HTTP/2,连接延迟降低 40%,传输速度提升 30%。同时,通过 brotli 、gzip 等智能压缩算法,传输效率再提升 60%。
- 智能可靠性机制 :内置智能重试机制 (最多3次)和高效的边缘缓存策略(默认缓存30分钟),不仅大幅提升下载成功率,也显著降低了源站的负载。
- 并行下载支持 :完整支持 HTTP Range 请求,允许
aria2
等多线程下载工具火力全开,速度倍增。
2. 一站式的多平台集成
告别为不同工具配置不同代理的繁琐!Xget 提供了一个统一、简洁的加速入口,覆盖了开发工作流中的绝大多数资源平台。
平台 | 平台前缀 | 加速链接格式 |
---|---|---|
GitHub | gh |
https://xget.xi-xu.me/gh/... |
GitLab | gl |
https://xget.xi-xu.me/gl/... |
Hugging Face | hf |
https://xget.xi-xu.me/hf/... |
npm | npm |
https://xget.xi-xu.me/npm/... |
PyPI | pypi |
https://xget.xi-xu.me/pypi/... |
conda | conda |
https://xget.xi-xu.me/conda/... |
容器注册表 | cr |
https://xget.xi-xu.me/cr/[registry]/... |
只需一个简单的链接转换,即可为所有支持的平台开启加速,极大地简化了开发环境的配置。
3. 企业级的安全保障
速度与安全从不应该是单选题。Xget 在设计之初就将安全放在了首位,提供了纵深防御体系。
- 多层安全标头 :默认启用
Strict-Transport-Security
(HSTS)、Content-Security-Policy
(CSP)、X-Frame-Options
等多重安全头,有效防范中间人攻击、点击劫持和 XSS 攻击。 - 请求验证与清理 :实施严格的 HTTP 方法白名单 (常规请求仅允许 GET/HEAD)、路径长度限制(防止超长 URL 攻击)和输入清理,杜绝路径遍历和注入风险。
- 超时保护:所有请求均设置 30 秒超时,防止恶意或低速请求耗尽服务器资源。
4. 完全的协议兼容性
Xget 的强大之处在于其深度理解并兼容底层协议,而不只是做简单的文件转发。
- Git 协议完全兼容 :它能智能识别
git clone
,push
,pull
等操作的特定协议请求(如/info/refs
,/git-upload-pack
),并进行相应处理,确保所有 Git 操作流畅无阻。 - Docker/OCI 兼容 :Xget 完全兼容 OCI(开放容器倡议)标准,支持
docker pull
、podman pull
等原生命令,可作为 GHCR、GCR 等多个主流容器注册表的透明镜像加速器。
丰富的应用场景与代码示例
理论再好,不如实践一次。下面我们将通过丰富的代码示例,展示 Xget 如何融入你的日常工作流。
1. 基础用法:命令行下载工具
无论是 wget
、curl
还是 aria2
,只需将原始链接替换为 Xget 加速链接即可。
bash
# 使用 wget 下载 GitHub Release 文件
wget https://xget.xi-xu.me/gh/microsoft/vscode/archive/refs/heads/main.zip
# 使用 curl 下载 Hugging Face 模型,并显示进度条
curl -L --progress-bar -o model.bin https://xget.xi-xu.me/hf/openai/whisper-large-v3/resolve/main/pytorch_model.bin
# 使用 aria2 开启 16 线程满速下载大文件
aria2c -x 16 -s 16 https://xget.xi-xu.me/hf/microsoft/DialoGPT-large/resolve/main/pytorch_model.bin
2. 开发环境配置:全局加速,一劳永逸
为你的常用工具配置一次,即可永久享受加速。
Git 全局加速
bash
# 将 GitHub 的访问流量全部导向 Xget
git config --global url."https://xget.xi-xu.me/gh/".insteadOf "https://github.com/"
# 验证配置
git config --global --get-regexp url
# 现在,像往常一样克隆即可自动加速!
git clone https://github.com/microsoft/vscode.git
npm/pip/conda 加速
bash
# npm 全局配置
npm config set registry https://xget.xi-xu.me/npm/
# pip 全局配置
pip config set global.index-url https://xget.xi-xu.me/pypi/simple/
pip config set global.trusted-host xget.xi-xu.me
# conda 配置
# 加速默认频道镜像
conda config --add default_channels https://xget.xi-xu.me/conda/pkgs/msys2
conda config --add default_channels https://xget.xi-xu.me/conda/pkgs/r
conda config --add default_channels https://xget.xi-xu.me/conda/pkgs/main
# 加速所有社区
conda config --set channel_alias https://xget.xi-xu.me/conda/community
3. 容器生态:加速镜像拉取
无论是本地开发还是 Kubernetes 生产环境,镜像拉取速度都直接影响效率。
Dockerfile
在 Dockerfile
中直接使用加速后的镜像地址。
dockerfile
# 使用 Xget 加速基础镜像
FROM xget.xi-xu.me/cr/ghcr/nodejs/node:18-alpine AS builder
WORKDIR /app
COPY package*.json ./
# npm install 也会受益于之前配置的 npm 加速
RUN npm install
# ... 后续构建步骤
Docker Compose
yaml
# docker-compose.yml
version: '3.8'
services:
web:
image: xget.xi-xu.me/cr/ghcr/nginxinc/nginx-unprivileged:latest
ports:
- "80:80"
database:
image: xget.xi-xu.me/cr/ghcr/bitnami/redis:alpine
Kubernetes Deployment
yaml
# deployment.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-deployment
spec:
replicas: 3
template:
spec:
containers:
- name: nginx
image: xget.xi-xu.me/cr/ghcr/nginxinc/nginx-unprivileged:latest
4. CI/CD 集成:为你的流水线注入动力
在 GitHub Actions 或 GitLab CI 中,每一秒都至关重要。使用 Xget 加速依赖下载和构建过程。
yaml
# .github/workflows/ci.yml
jobs:
build:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v4
- name: Download model files
run: |
# 加速下载大型模型文件
wget https://xget.xi-xu.me/hf/bert-base-uncased/resolve/main/pytorch_model.bin
- name: Clone dependency repo
run: |
# 加速 Git 克隆
git clone https://xget.xi-xu.me/gh/some-dependency/project.git
部署与生态:轻松上手,无缝集成
开箱即用:公共实例
为了让用户能立刻体验,我们提供了稳定可靠的公共实例:https://xget.xi-xu.me
。无需任何注册和部署,直接使用即可。
一键部署:拥有自己的 Xget
如果你有数据隐私、高可用性或自定义需求,可以通过 Cloudflare Workers 轻松部署自己的私有实例。整个过程只需点击一下按钮,几分钟内即可完成。
生态集成:浏览器扩展
为了获得更无缝的体验,我们还开发了 Xget for Chromium 浏览器扩展。它能自动将 GitHub 等页面的下载链接重定向到你的 Xget 实例,无需手动修改 URL。
拥抱速度,即刻开始
Xget 不仅仅是一个工具,它是一种对效率和流畅开发体验的追求。它通过极致的性能、广泛的平台支持、企业级的安全性和无缝的工具链集成,真正解决了开发者在全球化协作时代所面临的核心网络痛点。
还在等什么?
- 立即试用 :打开你的终端,将下一个
git clone
或wget
命令的域名替换为xget.xi-xu.me
,亲自感受飞一般的速度。 - 点亮 Star :如果 Xget 让你眼前一亮,请访问 GitHub 储存库并给我们一个 ⭐ Star,这是对我们最大的鼓励!
- 参与贡献 :Xget 是一个开放的社区项目。我们欢迎你通过提交 issue 或 pull request 来参与贡献,共同塑造 Xget 的未来。
告别等待,拥抱高效。从今天起,让 Xget 为你的开发工作流注入闪电般的速度!