huggingface

腾飞开源2 天前
人工智能·huggingface·onnx·transformers·嵌入模型·spring ai·句子转换器
40_Spring AI 干货笔记之 Transformers (ONNX) 嵌入TransformersEmbeddingModel 是一个 EmbeddingModel 实现,它使用选定的 句子转换器 在本地计算 句子嵌入。
leo03088 天前
llm·sft·huggingface·trl
【LLM微调】拒绝“假装聪明”:SFTTrainer 中 completion_only_loss 新旧版本用法详解在指令微调(SFT)大模型时,你是否遇到过:训练 Loss 迅速降到 0.0x,准确率飙升到 99%,但模型实际推理效果却很差?
leo03089 天前
llm·dp·huggingface·ddp
Hugging Face多卡训练“假快”?一文讲透`per_device_train_batch_size`的“陷阱”刚配好多卡机器,想用Hugging Face微调模型,觉得只要用python命令直接跑,卡多速度就快。结果一看nvidia-smi,发现只有一块卡在100%忙活,其他的都在“摸鱼”。更奇怪的是,训练时长和用单卡跑竟然差不多!
zhjadsf1 个月前
python·huggingface
Huggingface_hub源码解析 - 简介篇首先把huggingface_hub的中文文档过一遍。 之前以为huggingface_hub还管模型加载啥的,看了一遍文档之后才知道,它是完完全全只管文件在本地和远端的交互,不做其他事情。
墨理学AI2 个月前
huggingface·linux 软连接·hugging 模型复制
Linux 软连接 - 移动 huggingface 模型文件Hugging Face 使用 “内容寻址存储”(Content-Addressable Storage) 机制管理模型文件,核心思想是:
shizidushu3 个月前
人工智能·学习·自然语言处理·微调·huggingface
Hugging Face NLP课程学习记录 - 3. 微调一个预训练模型安装Hugging Face的datasets模块:以下以一个批次(one batch)为例,说明了如何训练一个句子分类器(sequence classifier):
HuggingFace5 个月前
开源·机械臂·huggingface
Hugging Face 开源 HopeJR 机器臂!今日直播带你深入技术核心我们的 LeRobot 项目又有了新动作 - HopeJR 正式开源!HopeJR 是一款拥有 23 自由度的开源仿生机械臂系统🦾,支持遥操作控制,具备完成复杂任务的能力,适用于科研与开发场景。整个机械臂用 3D 打印即可完成构建,硬件成本仅约 500 欧元!点击这里查看演示视频。
_Meilinger_7 个月前
docker·huggingface·tmux·promptstealer·hf-mirror
碎片笔记|PromptStealer复现要点(附Docker简单实用教程)前言:本篇博客记录PromptStealer复现历程,主要分享环境配置过程中的一些经验。论文信息:Prompt Stealing Attacks Against Text-to-Image Generation Models. USENIX, 2024. 开源代码:https://github.com/verazuo/prompt-stealing-attack
Uncertainty!!8 个月前
开发语言·python·机器学习·huggingface
在huggingface上制作小demo今天好兄弟让我帮他搞一个模型,他有小样本的化学数据,想让我根据这些数据训练一个小模型,他想用这个模型预测一些值 最终我简单训练了一个小模型,起初想把这个模型和GUI界面打包成exe发给他,但是发现打包后3.9GB,太大了吧!!!后来我又找了别的方案,即将训练好的模型以及相关代码、环境配置文件上传到huggingface上,通过hf的界面端直接使用这个模型,接下来我回顾一下整个流程
leo03089 个月前
人工智能·大模型·llm·huggingface
修改HuggingFace模型默认缓存路径huggingface模型的默认缓存路径是~/.cache/huggingface/hub/通常修改为自己的路径会更为方便。
mask哥9 个月前
pytorch·python·自然语言处理·大模型·huggingface
huggingface NLP主要知识点以及超级详解使用1.安装huggingface依赖库pip install transformers pip install datasets pip install pytorch
伪_装9 个月前
linux·服务器·docker·huggingface·dify·ollama·ragflow
Linux服务器部署Deepseek、Dify、RAGflow实战教程安装下载依赖 curl,用于解析下载 ollama 官方地址安装依赖 lspci 或 lshw 等工具用于检测 GPU
熊文豪10 个月前
lora·huggingface·ollama·unsloth·googlecolab·ai微调·医疗ai
轻松微调大模型:利用 Colab 和 Unsloth 实现高效训练大型语言模型(LLM)如 Llama、Mistral 等在通用任务上表现惊艳,但要让它们适配特定场景(比如医疗问答、算命预测),就需要微调。Google Colab 提供免费的 GPU 资源,而 Unsloth 是一个高效的微调工具,能大幅降低显存需求,让普通用户也能在云端完成训练。这篇文章将带你一步步完成从零到部署的全过程。
GarryLau10 个月前
pytorch·python·huggingface
huggingface/pytorch-image-modelshuggingface/pytorch-image-models单卡:多卡,下面参数的4表示4块卡一起训练:
阡之尘埃10 个月前
python·llm·huggingface·deepseek·deepseek-r1·lmstudio
本地部署DeepSeek-R1模型(新手保姆教程)最近deepseek太火了,无数的媒体都在报道,很多人争相着想本地部署试验一下。本文就简单教学一下,怎么本地部署。
chaplinthink10 个月前
ai·大模型·transformer·huggingface
Huggingface使用Transformer 是一种基于自注意力机制(Self-Attention)的深度学习模型,最初由 Vaswani 等人在 2017 年的论文《Attention is All You Need》中提出。Transformer 模型在自然语言处理(NLP)任务中表现出色,逐渐取代了传统的循环神经网络(RNN)和卷积神经网络(CNN)模型,成为 NLP 领域的主流架构。
yuanlulu1 年前
lora·llm·transformer·分布式训练·大语言模型·huggingface·多卡训练
llamafactory使用8张昇腾910b算力卡lora微调训练qwen2-72b大模型我需要在昇腾服务器上对Qwen2-72B大模型进行lora微调,改变其自我认知。 我的环境下是8张910B1卡。显存约512GB。
阿正的梦工坊1 年前
人工智能·pytorch·llm·huggingface
AMP 混合精度训练中的动态缩放机制: grad_scaler.py函数解析( torch._amp_update_scale_)在深度学习中,混合精度训练(AMP, Automatic Mixed Precision)是一种常用的技术,它利用半精度浮点(FP16)计算来加速训练,同时使用单精度浮点(FP32)来保持数值稳定性。为了在混合精度训练中避免数值溢出,PyTorch 提供了一种动态缩放机制来调整 “loss scale”(损失缩放值)。本文将详细解析动态缩放机制的实现原理,并通过代码展示其内部逻辑。
阿正的梦工坊1 年前
llm·huggingface
Gemma2 2B 模型的model.safetensors.index.json文件解析在使用 Gemma2 2B 模型或其他大型预训练模型时,model.safetensors.index.json 文件起到了索引的作用,它帮助我们了解模型的结构、参数存储方式以及如何加载模型的具体权重。本博客将深入解析该文件的内容和用途。 下载到本地的文件如下所示: