本地运行多种大语言模型:一行代码即可完成 | 开源日报 No.167

ollama/ollama

Stars: 33.5k License: MIT

ollama 是一个轻量级、可扩展的本地语言模型构建和运行框架。

  • 提供简单的 API 用于创建、运行和管理模型
  • 包含丰富的预构建模型库,方便在各种应用中使用
  • 支持从 GGUF、PyTorch 或 Safetensors 导入自定义模型
  • 可以通过命令行进行多种操作,如创建、拉取、删除和复制模型等

dair-ai/ML-YouTube-Courses

Stars: 12.6k License: CC0-1.0

ML-YouTube-Courses 是一个收集整理 YouTube 上最新的机器学习/AI 课程的项目。 该项目主要功能、关键特性、核心优势包括:

  • 收集整理了一系列最新和优质的机器学习课程
  • 涵盖了各种领域,如机器学习、深度学习、自然语言处理等
  • 提供了丰富多样的教育资源,方便用户快速获取相关知识

ardanlabs/service

Stars: 3.2k License: Apache-2.0

service 是使用 Kubernetes 在 Go 中编写服务的起始工具包。 该项目旨在提供一个经过验证的起点,以减少将新项目投入生产所需的重复任务。它使用最小依赖关系,实现成熟代码,并遵循 Go 的最佳实践。该项目为工程师们逻辑地布置了一切,以尽量减少猜测,并使他们能够快速建立对项目的心智模型。

  • 提供用于构建生产级可扩展网络服务应用程序的起始点
  • 利用领域驱动、数据导向架构
  • 可在 Kubernetes 上运行
  • 使用最小依赖关系和符合惯例代码
  • 遵循 Go 最佳实践

wenda-LLM/wenda

Stars: 5.9k License: AGPL-3.0

wenda 是一个 LLM 调用平台。 该项目旨在实现针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及知识安全和私密性问题。

其主要功能、关键特性、核心优势包括:

  • 支持多种大语言模型
  • 自动脚本功能
  • 知识库支持
  • 多用户并行使用等

hiyouga/ChatGLM-Efficient-Tuning

Stars: 3.4k License: Apache-2.0

ChatGLM Efficient Tuning 是一个基于 PEFT 的高效 ChatGLM 微调项目。该项目的主要功能是对 ChatGLM-6B 模型进行微调,使用了 PEFT (Prefix Encoding for Fine-Tuning) 方法。

以下是该开源项目的关键特性和核心优势:

  • 支持 LoRA、P-Tuning V2、Freeze 和 Full Tuning 等多种细粒度微调方法。
  • 提供丰富的数据集选择,包括 Stanford Alpaca、GPT-4 Generated Data 等等。
  • 可以在单个 GPU 或分布式环境下进行训练,并支持强化学习与人类反馈 (RLHF) 训练方式。
  • 具备评估模型质量和生成预测结果等功能。

通过这些特性和优势,ChatGLM Efficient Tuning 为用户提供了一套完整而灵活的工具来实现对 ChatGLM 模型进行高效微调。无论您是想尝试不同类型的微调方法还是需要根据自定义数据集完成任务,在这个开源项目中都能找到合适的解决方案。

相关推荐
youcans_9 分钟前
【DeepSeek论文精读】13. DeepSeek-OCR:上下文光学压缩
论文阅读·人工智能·计算机视觉·ocr·deepseek
canonical_entropy9 分钟前
最小变更成本 vs 最小信息表达:第一性原理的比较
后端
渣哥10 分钟前
代理选错,性能和功能全翻车!Spring AOP 的默认技术别再搞混
javascript·后端·面试
m0_6501082411 分钟前
【论文精读】Latent-Shift:基于时间偏移模块的高效文本生成视频技术
人工智能·论文精读·文本生成视频·潜在扩散模型·时间偏移模块·高效生成式人工智能
间彧26 分钟前
Java泛型详解与项目实战
后端
岁月的眸30 分钟前
【循环神经网络基础】
人工智能·rnn·深度学习
文火冰糖的硅基工坊32 分钟前
[人工智能-大模型-35]:模型层技术 - 大模型的能力与应用场景
人工智能·神经网络·架构·transformer
间彧36 分钟前
PECS原则在Java集合框架中的具体实现有哪些?举例说明
后端
间彧38 分钟前
Java 泛型擦除详解和项目实战
后端
间彧41 分钟前
在自定义泛型类时,如何正确应用PECS原则来设计API?
后端