modelscope

njsgcs9 天前
人工智能·pytorch·深度学习·modelscope·groundingdino
用modelscope运行grounding dino参考grounding-dino-tiny · 模型库不支持中文,试过了想让它识别点赞和收藏按钮识别不出来,效果很拉
Robot侠17 天前
llama·modelscope·llama-3·unsloth·llm 微调·rtx 3090
RTX 3090单卡微调 Llama-3 / Qwen2.5:基于 Unsloth + ModelScope 的极速实战摘要:手握 RTX 3090 这种“深度学习民用神卡”,却苦于 Hugging Face 下载太慢?微调大模型动辄 OOM(显存溢出)?本文将带你体验一套完全适配国内网络环境的本地微调流水线:Unsloth (训练加速) + ModelScope (极速下载)。实测 Llama-3-8B 下载仅需 5 分钟,微调仅需 20 秒!
love530love5 个月前
运维·人工智能·windows·python·缓存·modelscope
Windows 如何更改 ModelScope 的模型下载缓存位置?适用人群 :使用 Windows 系统下载大模型的开发者、科研人员、AI 爱好者 解决痛点 :避免模型默认下载到 C 盘,导致磁盘空间不足 支持方式 :命令行、SDK、Git 全覆盖,含自定义路径实操
LChuck7 个月前
人工智能·语言模型·自然语言处理·nlp·llama·魔搭社区·modelscope
【大模型微调】魔搭社区GPU进行LLaMA-Factory微调大模型自我认知文章概要: 本文是一篇详细的技术教程,介绍如何使用魔搭社区(ModelScope)的GPU资源来进行LLaMA-Factory的模型微调。文章分为11个主要步骤,从环境准备到最终的模型测试,系统地介绍了整个微调流程。主要内容包括:
何雷 — 智能网联汽车9 个月前
vscode·cache·win10·modelscope·软链接
vscode在win10上安装modelscope库的C盘缓存优化方法【问题说明】:笔者在VSCode上安装扩展插件和modelscope模型和数据集,发现默认都直接安装和缓存在C盘中,使得C盘的空间消耗特别快。
GPUStack1 年前
大模型·huggingface·modelscope·genai·gguf
制作并量化GGUF模型上传到HuggingFace和ModelScopellama.cpp 是 Ollama、LMStudio 和其他很多热门项目的底层实现,也是 GPUStack 所支持的推理引擎之一,它提供了 GGUF 模型文件格式。GGUF (General Gaussian U-Net Format) 是一种用于存储模型以进行推理的文件格式,旨在针对推理进行优化,可以快速加载和运行模型。
SpikeKing1 年前
人工智能·swift·modelscope·多模态大模型·推理·mllm·微调框架
LLM - 配置 ModelScope SWIFT 测试 Qwen2-VL 模型推理(Infer) 教程 (1)欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/142827217
AI码上来1 年前
开源·aigc·midjourney·modelscope
FLUX.1 实测,堪比 Midjourney 的开源 AI 绘画模型,无需本地显卡,带你免费实战要列举 AI 绘画开源界的几个关键贡献,一定少不了 Stable Diffusion。还记否前不久刚推出的 Stable Diffusion 3?
太空眼睛2 年前
python·数字人·语音合成·tts·modelscope
【语音合成】中文-多情感领域-16k-多发音人拼接法和参数法是两种Text-To-Speech(TTS)技术路线。近年来参数TTS系统获得了广泛的应用,故此处仅涉及参数法。
engchina2 年前
modelscope
修改 ModelScope 默认缓存路径设置 MODELSCOPE_CACHE 和 MODELSCOPE_MODULES_CACHE 两个环境变量。
我是有底线的