huggingface

长安即是故里5 天前
huggingface·存储·图床
使用HuggingFace免费搭建100G的图床和网盘,支持上传大文件本文大约阅读8分钟hello大家好,我是反调,今天个大家分享一个使用HuggingFace免费搭建100G的图床和网盘的教程,无需实名认证即可完成搭建。就之前写过一期关于使用缤纷云搭建图床的教程,很多小伙伴反馈,说是需要实名认证,很不放心自己的隐私信息。所以就找了其他的教程,嘿嘿。今天分享的这个也是开源项目CloudFlare-ImgBed,一个基于 Cloudflare Pages 的开源文件托管解决方案,为用户提供免费、稳定、高效的文件存储服务。项目支持多种存储渠道,支持无服务器和有服务器部署方式,满
aopstudio11 天前
人工智能·自然语言处理·llm·huggingface
HuggingFace Tokenizer 的进化:从分词器到智能对话引擎如果你用过 Hugging Face 的 Transformers 库,一定对 tokenizer 不陌生。它负责把"人话"变成"机器话"——也就是将文本转换成模型能理解的 token ID 序列。随着大模型从"单轮问答"走向"多轮对话",再到"调用外部工具完成任务",tokenizer 的角色早已超越了简单的分词器,正在成为构建可靠 AI Agent 的核心基础设施。
aopstudio12 天前
自然语言处理·大语言模型·huggingface
如何优雅地下载 Hugging Face 模型Hugging Face 已经成为事实上的开源模型分发中心,无论是 NLP、CV 还是多模态模型,几乎都可以通过一个 model id 直接获取完整权重与配置文件。
verse_armour1 个月前
人工智能·深度学习·huggingface·zenodo·数据集下载
【深度学习】Grand Challenge、zenodo、huggingface数据集下载之前写过一个Grand Challenge 上数据集的下载的帖子,不再赘述:https://blog.csdn.net/verse_armour/article/details/153273551?spm=1001.2014.3001.5501
腾飞开源1 个月前
人工智能·huggingface·onnx·transformers·嵌入模型·spring ai·句子转换器
40_Spring AI 干货笔记之 Transformers (ONNX) 嵌入TransformersEmbeddingModel 是一个 EmbeddingModel 实现,它使用选定的 句子转换器 在本地计算 句子嵌入。
leo03082 个月前
llm·sft·huggingface·trl
【LLM微调】拒绝“假装聪明”:SFTTrainer 中 completion_only_loss 新旧版本用法详解在指令微调(SFT)大模型时,你是否遇到过:训练 Loss 迅速降到 0.0x,准确率飙升到 99%,但模型实际推理效果却很差?
leo03082 个月前
llm·dp·huggingface·ddp
Hugging Face多卡训练“假快”?一文讲透`per_device_train_batch_size`的“陷阱”刚配好多卡机器,想用Hugging Face微调模型,觉得只要用python命令直接跑,卡多速度就快。结果一看nvidia-smi,发现只有一块卡在100%忙活,其他的都在“摸鱼”。更奇怪的是,训练时长和用单卡跑竟然差不多!
zhjadsf2 个月前
python·huggingface
Huggingface_hub源码解析 - 简介篇首先把huggingface_hub的中文文档过一遍。 之前以为huggingface_hub还管模型加载啥的,看了一遍文档之后才知道,它是完完全全只管文件在本地和远端的交互,不做其他事情。
墨理学AI4 个月前
huggingface·linux 软连接·hugging 模型复制
Linux 软连接 - 移动 huggingface 模型文件Hugging Face 使用 “内容寻址存储”(Content-Addressable Storage) 机制管理模型文件,核心思想是:
shizidushu4 个月前
人工智能·学习·自然语言处理·微调·huggingface
Hugging Face NLP课程学习记录 - 3. 微调一个预训练模型安装Hugging Face的datasets模块:以下以一个批次(one batch)为例,说明了如何训练一个句子分类器(sequence classifier):
HuggingFace6 个月前
开源·机械臂·huggingface
Hugging Face 开源 HopeJR 机器臂!今日直播带你深入技术核心我们的 LeRobot 项目又有了新动作 - HopeJR 正式开源!HopeJR 是一款拥有 23 自由度的开源仿生机械臂系统🦾,支持遥操作控制,具备完成复杂任务的能力,适用于科研与开发场景。整个机械臂用 3D 打印即可完成构建,硬件成本仅约 500 欧元!点击这里查看演示视频。
_Meilinger_8 个月前
docker·huggingface·tmux·promptstealer·hf-mirror
碎片笔记|PromptStealer复现要点(附Docker简单实用教程)前言:本篇博客记录PromptStealer复现历程,主要分享环境配置过程中的一些经验。论文信息:Prompt Stealing Attacks Against Text-to-Image Generation Models. USENIX, 2024. 开源代码:https://github.com/verazuo/prompt-stealing-attack
Uncertainty!!10 个月前
开发语言·python·机器学习·huggingface
在huggingface上制作小demo今天好兄弟让我帮他搞一个模型,他有小样本的化学数据,想让我根据这些数据训练一个小模型,他想用这个模型预测一些值 最终我简单训练了一个小模型,起初想把这个模型和GUI界面打包成exe发给他,但是发现打包后3.9GB,太大了吧!!!后来我又找了别的方案,即将训练好的模型以及相关代码、环境配置文件上传到huggingface上,通过hf的界面端直接使用这个模型,接下来我回顾一下整个流程
leo030810 个月前
人工智能·大模型·llm·huggingface
修改HuggingFace模型默认缓存路径huggingface模型的默认缓存路径是~/.cache/huggingface/hub/通常修改为自己的路径会更为方便。
mask哥1 年前
pytorch·python·自然语言处理·大模型·huggingface
huggingface NLP主要知识点以及超级详解使用1.安装huggingface依赖库pip install transformers pip install datasets pip install pytorch
伪_装1 年前
linux·服务器·docker·huggingface·dify·ollama·ragflow
Linux服务器部署Deepseek、Dify、RAGflow实战教程安装下载依赖 curl,用于解析下载 ollama 官方地址安装依赖 lspci 或 lshw 等工具用于检测 GPU
熊文豪1 年前
lora·huggingface·ollama·unsloth·googlecolab·ai微调·医疗ai
轻松微调大模型:利用 Colab 和 Unsloth 实现高效训练大型语言模型(LLM)如 Llama、Mistral 等在通用任务上表现惊艳,但要让它们适配特定场景(比如医疗问答、算命预测),就需要微调。Google Colab 提供免费的 GPU 资源,而 Unsloth 是一个高效的微调工具,能大幅降低显存需求,让普通用户也能在云端完成训练。这篇文章将带你一步步完成从零到部署的全过程。
GarryLau1 年前
pytorch·python·huggingface
huggingface/pytorch-image-modelshuggingface/pytorch-image-models单卡:多卡,下面参数的4表示4块卡一起训练:
阡之尘埃1 年前
python·llm·huggingface·deepseek·deepseek-r1·lmstudio
本地部署DeepSeek-R1模型(新手保姆教程)最近deepseek太火了,无数的媒体都在报道,很多人争相着想本地部署试验一下。本文就简单教学一下,怎么本地部署。