不写代码、构建一个开源的 ChatGPT,总共需要几步?|Hugging News #1020

每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉

给 Pro 订阅账户加入的更高级的推理 API 功能

我们为 Hugging Face Pro 订阅用户加入了一些新的模型 API 访问权限包括 Llama 2 Chat、Code Llama Base 和 Stable Diffusion XL 等,同时也提高了对推理 API 的速率限制。开发者们可以更好地进行模型实验和原型开发,而无需部署模型到自己的基础设施上。

朋友们,升个级? hf.co/subscribe/p...

为推理 API 发布新的模型分类页面

我们发布了一个新的模型分类页面,展示了一系列精选、即时可部署的模型,包括如文本生成、文本到图像、自动语音识别和文本嵌入提取等多个模型分类。每个模型条目提供了模型的简要描述、优化目标、模型的参数大小、每小时的运行成本和运行所需的硬件配置,例如 GPU 型号等。

大家可以在这里查看: ui.endpoints.huggingface.co/catalog

Flash Attention 2 现已在 🤗 Transformers 可用

Flash Attention 2 是一个优化的注意力机制算法,旨在改善基于 transformer 的模型的效率。通过改进并行处理和工作分区、减少内存使用、Flash 解码等策略,使得模型以更长的序列长度运行和训练,而不会遇到内存溢出问题,从而更好地处理大规模数据。

🤗 Transformers 现已原生支持 Flash Attention 2,支持 PEFT(预训练嵌入式微调)的训练和量化(GPTQ, QLoRA, LLM.int8)。

构建一个开源的 ChatGPT,总共需要几步(还不用写代码)

我们发表了一篇博客,介绍如何在不编写任何代码的情况下构建自己的开源 ChatGPT,它使用 LLaMA 2 基础模型,通过一个开源指令数据集对其进行微调,然后部署到一个聊天应用程序中,可以与朋友分享,使用 Hugging Face 平台的各种工具 ,如 Spaces、AutoTrain 和 ChatUI。

🔥 hf.co/blog/Llama2...


以上就是本期的 Hugging News,我的愿望是------(评论区说说?

相关推荐
wuhanwhite2 小时前
2025:OpenAI的“七十二变”?
人工智能·openai·语音识别
XianxinMao2 小时前
BitNet a4.8:通过4位激活实现1位大语言模型的高效内存推理
人工智能·语言模型·自然语言处理
一水鉴天3 小时前
智能工厂的设计软件 应用场景的一个例子:为AI聊天工具添加一个知识系统 之11 方案再探之2 项目文件(修改稿1)
人工智能
KeyPan3 小时前
【视觉SLAM:八、后端Ⅰ】
人工智能·数码相机·算法·机器学习·计算机视觉
好评笔记3 小时前
多模态论文笔记——Coca(副)
论文阅读·人工智能·深度学习·计算机视觉·transformer·coca·dalle2
好评笔记3 小时前
多模态论文笔记——Coca
人工智能·深度学习·计算机视觉·aigc·transformer·多模态·coca
何大春3 小时前
Quo Vadis, Anomaly Detection? LLMs and VLMs in the Spotlight 论文阅读
论文阅读·人工智能·深度学习·论文笔记
Jackilina_Stone3 小时前
【论文阅读笔记】SCI算法与代码 | 低照度图像增强 | 2022.4.21
论文阅读·人工智能·笔记·python·算法·计算机视觉
图王大胜4 小时前
模型 九屏幕分析法
人工智能·解决方案·管理·决策·战略规划·企业发展·分析方法
程序猿阿伟4 小时前
《量子AI:突破量子比特稳定性与容错性的关键瓶颈》
运维·人工智能·自动化