Ollama模型库模型下载慢完美解决(全平台)

前言

在我们从ollama下载模型时,会发现ollama最开始下载速度很快,能达到10-20MB/s

但到了后期,速度就会越来越慢,最终降低到10-20kb/s

下载一个模型大多需要1到1.5小时

这是因为ollama服务器负荷过大的问题

思路

如果在下载中终断下载,在用ollama run恢复下载,速度就会又提上去,但3-4分钟后又下去了

如果使用脚本重复这个过程,就可以实现高速下载

注意事项

在正式使用时,请将脚本中的DeepSeek-r1-7b改为自己要下载的模型

macOS

编写代码

将以下代码保存为.sh文件,然后赋予执行权限并运行:

复制代码
#!/bin/bash
echo "Starting Ollama auto-restart script..."
while true; do
    timeout 60 ollama run deepseek-r1:7b &
    CMD_PID=$!
    echo "Started Ollama with PID: $CMD_PID"
    
    sleep 60
    if ps -p $CMD_PID > /dev/null; then
        echo "Stopping Ollama process..."
        kill -9 $CMD_PID
        wait $CMD_PID 2>/dev/null
    fi
done

环境准备

  1. 给脚本赋予执行权限(只需执行一次)

    复制代码
    chmod +x restart_ollama.sh
  2. 双击 restart_ollama.sh 运行 或者 在终端运行:

    复制代码
    ./restart_ollama.sh

windows

将以下代码保存为.bat文件,双击即可运行:

复制代码
@echo off
echo Starting Ollama auto-restart script...
:loop
start /B ollama pull deepseek-r1:7b ::这里切换你自己的下载语句,此处是pull deepseek-r1:7b
timeout /t 60 /nobreak
for /f "tokens=2 delims=," %%a in ('tasklist /FI "IMAGENAME eq ollama.exe" /FO CSV /NH') do set CMD_PID=%%a
if defined CMD_PID (
    echo Stopping Ollama process %CMD_PID%
    taskkill /PID %CMD_PID% /F
)
goto loop
相关推荐
大树881 天前
国产液冷产业链的突破:应对龙虾大模型等终端算力需求激增的倒逼效应
科技·ai·云计算
AI英德西牛仔1 天前
deepseek导出word排版
人工智能·ai·chatgpt·deepseek·ds随心转
金刚猿1 天前
AI -- 实现多轮对话且将消息数据基于ChatMemory持久化到 Redis 示例
ai·deepseek·ai多轮对话·持久化到redis
zhensherlock1 天前
Protocol Launcher 系列:Trae AI 编辑器的深度集成
javascript·人工智能·vscode·ai·typescript·编辑器·ai编程
Zender Han1 天前
从 0 到 1:如何设计与编写高质量 Skills(AI Agent 技能开发指南)
人工智能·ai
何政@1 天前
通过python 快速完成ai 构建
人工智能·python·ai·大模型·love l
Cha0DD1 天前
【由浅入深探究langchain】第四集-(RAG)语义搜索-数据入库
人工智能·ai·langchain
gao_tjie1 天前
영화 같은 느낌, 대규모 팀 필요 없음: Veo 비디오 생성 API, AI에 영화 언어 넘기기 (다양한 예제 및 설명 포함)
ai
吾无法无天1 天前
Ubuntu24安装OpenClaw并配置(浏览器自动化,飞书,一些skill)
ai·openclaw
marsh02061 天前
14 openclaw模板引擎使用:高效渲染动态内容
java·前端·spring·ai·编程·技术