Hugging News #0918: Hub 加入分类整理功能、科普文本生成中的流式传输

每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉😍

🤗Hub 加入分类整理 (Collection) 功能

现在你可以把任何你喜欢的模型 / 数据集 / Space 应用等按照自己的喜好进行分类整理和收藏。这个功能不仅对个人账号开放,同时对 Hub 上的组织账号也同样开放,Collection 会显示在个人或者组织的资料页面上,快去试试看吧!

查看文档: hf.co/docs/hub/co...

模型显存计算器

模型显存计算器 (Model Memory Calculator) 工具,旨在帮助大家计算在 🤗 Hub上训练或运行大型模型所需的 vRAM(显存)。这个工具能在百分之几的误差内估算模型的显存需求。

最小推荐的 vRAM 是模型"最大层"的大小,而训练一个模型大约需要其大小的 4 倍显存 (考虑到 Adam 优化器)。在进行模型推理 (inference) 时,可能还需额外增加最多 20% 的显存。这个工具支持所有使用 transformers 和 timm 库的模型。使用时只需输入模型的 URL 或名字,选择其来源框架,以及你想使用的精度即可。 即刻体验: hf-accelerate-model-memory-usage.hf.space/

探索生物和化学方面的基座模型

我们一位同事 Katie 正在收集生物和化学领域的基座模型的列表,我们看到绝大多数都是开源并且开放权重的。

你可以在这里查看到这些模型的列表: hf.co/spaces/hf4h...

为什么要在文本生成中选择使用流式传输?

流式传输是服务器逐个返回模型生成的标记 (tokens) 的模式,这有助于用户逐步查看生成过程,而不必等待整个生成完成。这对于提高终端用户体验至关重要,因为它减少了延迟,这是流畅体验的关键因素之一。

使用流式传输,服务器可以在生成完整响应之前逐个返回标记,使用户能够更早地了解生成质量。这有一些积极的影响:对于非常长的查询,用户可以更早地获得结果。在生成过程中观察进展允许用户在生成不符合他们期望的方向时停止生成。在早期展示结果时,感知的延迟较低。在会话界面中使用时,体验感觉更加自然。

我们发布了一个文档,介绍了如何在 Python、cURL 和 JavaScript 中实现流式传输,以及流式传输的工作原理,其中使用了 Server-Sent Events(SSE)来建立 HTTP 连接并实现数据的单向传输。通过指定最大并发请求数,还可以管理服务器的负载。

查看文档: hf.co/docs/text-g...


以上就是本期的 Hugging News,新的一周开始了,我们一起加油! 💪🎉

相关推荐
SelectDB几秒前
Apache Doris 4.0.2 版本正式发布
数据库·人工智能
Solar20253 分钟前
TOB企业智能获客新范式:基于数据驱动与AI的销售线索挖掘与孵化架构实践
人工智能·架构
AI营销实验室18 分钟前
原圈科技如何以多智能体赋能AI营销内容生产新范式
人工智能
视***间22 分钟前
智驱万物,视联未来 —— 视程空间以 AI 硬科技赋能全场景智能革新
人工智能·边缘计算·视程空间·ai算力开发板
一个java开发40 分钟前
mcp demo 智能天气服务:经纬度预报与城市警报
人工智能
阿里云大数据AI技术43 分钟前
OmniThoughtV:面向多模态深度思考的高质量数据蒸馏
人工智能
jkyy20141 小时前
AI健康医疗开放平台:企业健康业务的“新基建”
大数据·人工智能·科技·健康医疗
hy15687861 小时前
coze编程-工作流-起起起---废(一句话生成工作流)
人工智能·coze·自动编程
brave and determined1 小时前
CANN训练营 学习(day8)昇腾大模型推理调优实战指南
人工智能·算法·机器学习·ai实战·昇腾ai·ai推理·实战记录
Fuly10241 小时前
MCP协议的简介和简单实现
人工智能·langchain