技术栈
llama
初窺門徑
4 小时前
llama
·
大模型微调
·
llama-factory
llama-factory部署微调方法(wsl-Ubuntu & Windows)
llama-factory项目GitHub地址:GitHub - hiyouga/LLaMA-Factory: Unified Efficient Fine-Tuning of 100+ LLMs & VLMs (ACL 2024)
Neo很努力
1 天前
自然语言处理
·
chatgpt
·
langchain
·
aigc
·
llama
【deepseek】本地部署+RAG知识库挂载+对话测试
本文主要涵盖Deepseek在ubuntu系统中的部署全流程,包括模型的下载、系统部署、本地文档向量化、向量列表存储、RAG知识库挂载、对话测试等内容
大鱼>
1 天前
llama
·
大模型微调
·
deepseek
Ubuntu 服务器Llama Factory 搭建DeepSeek-R1微调训练环境
LLM 微调指的是在已经预训练好的大型语言模型基础上,使用特定的任务数据或领域数据,通过进一步的训练来调整模型的参数,使其在特定任务或领域上能够表现得更好。简单来说,就是对一个已经具备了丰富语言知识的通用大模型进行 “个性化” 调整,以适应更具体的应用场景和需求。
风起晨曦
3 天前
llama
LLaMa Factory 安装
1、环境准备2、 下载LLamaFactory3、点击 http://0.0.0.0:7860,打开UI界面
运维开发王义杰
3 天前
人工智能
·
llama
AI: Unsloth + Llama 3 微调实践,基于Colab
Meta AI 的 Llama 3 开源大语言模型发布后,引起了广泛关注。然而,直接使用 Llama 3 完整版(如 8B 参数)对硬件,尤其是 GPU 有较高要求。别担心,这里将介绍如何利用 Unsloth 库,在资源有限的条件下(例如 Google Colab 的免费 Tesla T4 GPU),高效微调 Llama 3 的较小版本(1B 和 3B 参数),让它们也能胜任对话任务。本文提供完整、可运行的代码,并详细讲解每一步,确保不熟悉的同学也能上手。
风起晨曦
3 天前
llama
(LLaMa Factory)大模型训练方法--预训练(Qwen2-0.5B)
❗由于大模型的预训练需要数千个GPU并持续数月的时间,所以一般情况下实际工作中并不会涉及到预训练,本篇文章我们只做的简单流程体验。
风起晨曦
4 天前
llama
(LLaMa Factory)大模型训练方法--监督微调(Qwen2-0.5B)
1、准备训练数据:SFT 的数据格式有多种,例如:Alpaca格式、OpenAI格式等。根据以上的数据格式,我们在ModelScope的数据集找到中文医疗对话数据-Chinese-medical-dialogue符合上述格式。
mygodalien
4 天前
人工智能
·
机器学习
·
chatgpt
·
llama
Win7编译GPU版llama.cpp部署deepseek-r1等大模型记录
本文是一个测试记录,供参考。目标是在Windows7系统下,实现llama.cpp的CPU编译、GPU编译,实现大模型的单机部署。
shandianchengzi
4 天前
ubuntu
·
llm
·
bug
·
llama
·
ollama
·
deepseek
【BUG】LLM|Ubuntu 用 ollama 部署 DeepSeek 但没输出,llama 有输出
在Ubuntu 22服务器部署DeepSeek模型时,发现Ollama服务无响应输出(如图1)。通过系统日志和版本比对,最终定位为Ollama版本过低导致的新模型兼容性问题。
翻滚的小@强
4 天前
大语言模型
·
llama
Llama3.0论文学习笔记: The Llama 3 Herd of Models
今天分享Llama3.0的论文,2024.7月来自Meta的Llama团队,2025年1月DeepSeek R1出现之后,其风头显然已经盖住了Llama3,这时候整理Llama3感觉有点赶不上潮流了,但是我还是想整理下Llama3.0,原因是刚好春节的时候读了下原论文(起源是节后在公司做分享),另外一个是Llama3的技术比较成熟,很多大模型的语言部分都是Llama的架构,因此想做为入门大模型的第一个实践模型。
智模睿脑君
7 天前
人工智能
·
计算机视觉
·
语言模型
·
ai作画
·
视觉检测
·
transformer
·
llama
多模态本地部署和ollama部署Llama-Vision实现视觉问答
Llama 3.2-Vision 是一系列多模态大语言模型(LLM),包括预训练和指令调优的图像推理生成模型大小分别为11B和90B(输入为文本+图像/输出为文本)。Lama 3.2-Vision 指令调优模型针对视觉识别、图像推理、字幕生成以及回答关于图像的一般问题进行了优化。这些模型在常见的行业基准测试中表现优于许多可用的开源和闭源多模态模型, 模型开发者: Meta 模型架构: Llama 3.2-Vision 基于 Lama 3.1 文本模型构建,后者是一个使用优化的Transformer架构的自
闻道且行之
7 天前
语言模型
·
llama
大预言模型|微调大预言模型初探索(LLaMA-Factory)(1)
微调模型通常比从零开始训练一个模型的技术要求低。公司不需要拥有大量的深度学习专家,利用现有的开源工具和库(如Hugging Face的Transformers等),中小型公司可以轻松地使用和微调大型模型,从而快速实现AI能力的集成。因此,学会微调大模型就很有必要。
uncle_ll
7 天前
大模型
·
llm
·
llama
·
qwen
·
rag
基于 llama-index与Qwen大模型实现RAG
LlamaIndex和Langchain都是比较成熟的RAG和Agent框架,这里基于llama实现RAG框架,大模型选用阿里的开源模型Qwen大模型。可以实现Qwen2.5 与外部数据(例如文档、网页等)的连接,利用 LlamaIndex 与 Qwen2.5 快速部署检索增强生成(RAG)技术。
Stestack
7 天前
llama
llama.cpp部署 DeepSeek-R1 模型
使用纯 C/C++推理 Meta 的LLaMA模型(及其他模型)。主要目标llama.cpp是在各种硬件(本地和云端)上以最少的设置和最先进的性能实现 LLM 推理。纯 C/C++ 实现,无任何依赖项Apple 芯片是一流的——通过 ARM NEON、Accelerate 和 Metal 框架进行了优化AVX、AVX2、AVX512 和 AMX 支持 x86 架构1.5 位、2 位、3 位、4 位、5 位、6 位和 8 位整数量化,可加快推理速度并减少内存使用用于在 NVIDIA GPU 上运行 LLM
一条咸鱼的记录
7 天前
个人开发
·
llama
【个人开发】deepseed+Llama-factory 本地数据多卡Lora微调
上一篇文件写到,macbook微调Lora,该微调方式,同样适用于GPU,只不过在train.py脚本中,针对device,调整为cuda即可。
flymyd
8 天前
linux
·
运维
·
ubuntu
·
ai
·
llama
Ubuntu 22.04完整安装Xinference及解决依赖报错
注:文中使用的环境为Ubuntu 22.04 LTS + CUDA 12.4.1根据Pytorch安装指引进行安装,重新执行命令即可。注意,一定要在Pytorch网站上按照你的系统和CUDA版本等选择。使用pip即可。例:
AI-智能
10 天前
人工智能
·
程序员
·
langchain
·
编程
·
llama
·
milvus
·
deepseek
DeepSeek入门到精通!(清华大学104页ppt下载)
还在为找一款趁手的国产开源 AI 工具发愁?《DeepSeek:从入门到精通》1.0 版现已发布!这本由清华教授团队打造的手册,是你了解 DeepSeek 的最佳指南。无论你是 AI 新手,还是想突破瓶颈,都能从中找到成长的捷径。
jayxlb2
10 天前
笔记
·
ai
·
llama
LLaMA-Factory 安装linux部署&conda笔记
第一行代码是我导入https://github.com/hiyouga/LLaMA-Factory.git到我的项目那里的,试过网上随便搜索过相同,估计没更新,安装了几次都运行失败,克隆了最新的就安装成功了。
张登杰踩
11 天前
人工智能
·
llama
【模型部署】大模型部署工具对比:SGLang, Ollama, VLLM, LLaMA.cpp如何选择?
在选择大模型部署工具时,需要考虑多个因素,包括性能、支持的语言和模型、硬件支持、易用性以及社区支持等。以下是对比分析:
我的巨剑能轻松搅动潮汐
13 天前
llama
Win10 部署llama Factory 推荐教程和遇到的问题
【大模型微调】使用Llama Factory实现中文llama3微调_哔哩哔哩_bilibili大模型微调!手把手带你用LLaMA-Factory工具微调Qwen大模型!有手就行,零代码微调任意大语言模型_哔哩哔哩_bilibili