bash
"channels:
- https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
- defaults
在清华镜像已经配好的前提下,绝大多数场景用 pip 会更快,原因有三点:
1.通道实际走的协议
- pip 直连清华 TUNA 的 PyPI 镜像(HTTPS,全球 CDN 节点多,带宽足)。
- conda 虽然你也写了清华的 conda-forge / main 通道,但 conda 解析的是「repodata.json」,文件体量大(几十 MB),且每次都要做 SAT 依赖求解,网络+CPU 耗时都比 pip 高一个量级。
2.依赖求解复杂度
- pip 的依赖算法简单粗暴:「先下轮子,后报错」,装包速度几乎等于纯下载速度。
- conda 要做严格的"环境一致性"检查,版本冲突时要回退、重算,经常把 repodata 反复拉几遍,尤其在 Windows 上感受明显。
3.二进制包大小
- conda-forge 提供的二进制包为了兼容性,普遍比 PyPI 的 wheel 大(带全套共享库)。
- PyPI 的 wheel 只包含 Python 扩展模块,体积更小,下载自然更快。
4.什么时候反而用 conda 更划算
- 需要「非 Python 依赖」统一管理的库(cuda-toolkit、mkldnn、ffmpeg、gcc 等)。
- 团队统一用 conda 环境,避免 pip 混装把 conda 环境搞坏。
- 离线内网已经同步好 conda 仓库,没有 PyPI 镜像。
5.注意
选定一个包管理器:conda 就用到底,pip 就用到底,不要交叉。
-
因为:二进制扩展包(numpy、scipy、opencv、sklearn...)在编译时就把"谁是谁"写死了,交叉安装等于把两套互相不认识、甚至 ABI 不兼容的库硬塞到同一目录,一旦加载顺序或符号版本对不上,就直接 ImportError/DLL load failed。
- 编译链不同
- conda-forge 用 GCC + Intel MKL + 特定 flags 编译,链接的是 mkl_rt.dll 和 libiomp5md.dll。
- PyPI 官方 whl 用 MSVC + OpenBLAS 编译,链接的是 libopenblas.dll。两套 DLL 同时躺在 ~\Lib\site-packages 下,Python 先找到谁就用谁,结果:numpy 以为后面是 OpenBLAS,scipy 以为前面是 MKL → 符号表对不上 → 启动即炸。
- ABI / 名字空间冲突
- Cython 生成的 .pyd 在导入时会检查import numpy.core._multiarray_umath
的 ABI 版本标记(见 __Pyx_check_numpy_version)。conda 的 numpy 把标记写成 0x01000009,pip 的 scipy 编译时预期的是 0x0100000a,一加载就拒绝工作,抛ImportError: numpy.core.multiarray failed to import。
- Cython 生成的 .pyd 在导入时会检查import numpy.core._multiarray_umath
- 依赖图被"撕成两半"
- conda resolver 把 liblapack、intel-openmp、tbb 等当作独立包管理;pip 只认 *.dist-info 目录,对这些系统库视而不见。结果:conda install scipy 会拉下 mkl-service、intel-openmp。你随后 pip install scikit-learn 又拉下一套 OpenBLAS 副本。磁盘里两份 BLAS,运行时加载器只挑第一个找到的,版本错就直接崩溃。
- 编译链不同