技术栈
llama
宇梵文书C
8 小时前
llm
·
llama
·
cfff
在CFFF云平台使用llama-factory部署及微调Qwen2.5-7B-Instruct
24GB的显存基本可以满足7B模型的部署和微调,不过由于CFFF平台都是A100显卡,因此选择一张GPU创建云服务器实例(AI4S_share_queue, A100 * 1, 80G)
CSBLOG
1 天前
人工智能
·
深度学习
·
llama
Day27 - 大模型微调,LLaMA搭建
SFT:Supervised Fine - Tuning1. 下载 LLaMA-Factory 源代码
python_知世
2 天前
人工智能
·
深度学习
·
程序人生
·
自然语言处理
·
大语言模型
·
llama
·
大模型微调
基于LLaMA-Factory微调Llama3
本文简要介绍下基于LLaMA-Factory的llama3 8B模型的微调过程升级到24.0版本这里以微调中文为例:
handsomelky
2 天前
人工智能
·
语言模型
·
自然语言处理
·
chatgpt
·
llama
·
ollama
·
gemma
ollama本地部署大语言模型记录
最近突然对大语言模型感兴趣同时在平时的一些线下断网的CTF比赛中,大语言模型也可以作为一个能对话交互的高级知识检索库
曦云沐
2 天前
开源
·
llama
Llama3模型详解 - Meta最新开源大模型全面解析
📚 Meta最新发布的Llama3模型在开源社区引起广泛关注。本文将全面解析Llama3的技术特点、部署要求和应用场景。
诚威_lol_中大努力中
4 天前
llama
关于llama2:从原始llama-2-7b到llama-2-7b-hf的权重转换教程
1.首先,我是从各个教程里面选了一个实际操作的教程(这样更加靠谱):下载llama2-7b并转hf模型_huggingface 下载llama2-7b-chat-hf-CSDN博客
乌漆嘎嘎黑
5 天前
pytorch
·
python
·
bug
·
llama
·
大模型权重文件
训练的Loss和输出突然全是nan【小白找bug】
某一天,我重新跑了两天之前正常跑的代码,训练的Loss和输出突然全是nan(从epoch0就是nan了),我惊慌失措。我的代码是关于微调llama的,于是我开始找问题,在输入进入llama之前都是没问题的,进入llama的输出变成了nan,所以有可能是llama本身的数值有问题,我是用下载好的llama权重文件初始化的,可以使用简单的程序验证一下是不是下载的权重文件的问题:
haibo2144
8 天前
llama
Meta Llama 3:fb羊驼的第三次进化
2024年4月18日,一个普通的日子,但对于人工智能领域来说却是个“新羊驼出世”的里程碑。Meta公司推出了他们的最新大型语言模型——Meta Llama 3,而我们今天的主角就是它那身材精干却智慧超群的 Llama-3-8B,一个体重仅8B(参数数量)的语言“羊驼”。
阿正的梦工坊
8 天前
人工智能
·
pytorch
·
llama
PyTorch 中detach 和no_grad的应用:以 Llama 3 冻结参数为例
在深度学习中,特别是处理大型预训练模型(如 Hugging Face 的 Llama 3)时,我们经常需要“冻结”某些层的参数,使其在训练中保持不变。这种操作通常用于迁移学习(Transfer Learning),以减少计算开销或保留预训练模型的知识。本文将通过一个实际代码示例,结合 detach 和 no_grad 的使用,详细介绍如何冻结 Hugging Face 大模型的参数,并实现自定义计算。
一个处女座的程序猿
8 天前
llama
LLMs之Llama-3:Llama-3.3的简介、安装和使用方法、案例应用之详细攻略
LLMs之Llama-3:Llama-3.3的简介、安装和使用方法、案例应用之详细攻略目录相关文章LLMs之LLaMA:LLaMA的简介、安装和使用方法、案例应用之详细攻略
大地爱
10 天前
前端
·
ui
·
llama
LLaMA Factory+ModelScope实战——使用 Web UI 进行监督微调
文章原始地址:https://onlyar.site/2024/01/14/NLP-LLaMA-Factory-web-tuning/
hunteritself
10 天前
人工智能
·
gpt
·
算法
·
chatgpt
·
openai
·
llama
AI Weekly『12月2-8日』:OpenAI发布发布满血版o1,Meta发布Llama 3.3模型!
大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“外挂”,专注于分享AI全维度知识,包括但不限于AI科普,AI工具测评,AI效率提升,AI行业洞察。关注我,AI之路不迷路,2024我们一起变强。
DREAM依旧
11 天前
人工智能
·
llama
Llama-3.1-405B-Instruct 开源体验|对比|亮点|使用|总结
随着大型语言模型(LLM)技术的迅猛发展,Meta AI发布的Llama系列模型已成为自然语言处理领域的关键推动者。最新版本Llama-3.1-405B-Instruct以其惊人的参数规模、卓越的性能和广泛的适用性,在开源社区中引起了巨大反响。本文将深入探讨Llama-3.1-405B-Instruct的特点、与前代模型的对比、亮点、获取方式及使用方法,并对其进行全面评价。
AI程序猿人
11 天前
人工智能
·
深度学习
·
ai
·
自然语言处理
·
大模型
·
llama
·
llama3.2
微调 Llama 3.2:让 AI 更好地读取医学图像
您是否想知道人工智能模型如何学习理解医学图像?今天,我将带您完成一个令人兴奋的项目:微调 Meta 的 Llama 3.2 Vision 模型来分析放射线图像。如果您不是技术专家,也不要担心 - 我会用简单的术语来解释。
go2coding
11 天前
人工智能
·
llama
Meta发布Llama 3.3 AI大模型
摘要:Meta于12月6日发布了其最新的AI大模型Llama 3.3,该模型拥有700亿参数,但在性能上可媲美4050亿参数的Llama 3.1,具有更高的效率和更低的成本。Llama 3.3优化了多语言支持,支持8种语言,采用自回归模型架构,结合监督式微调和基于人类反馈的强化学习。模型具备128K的上下文长度和多个工具集成支持,并加强了安全防护措施,降低滥用风险。
少喝冰美式
11 天前
人工智能
·
深度学习
·
机器学习
·
llm
·
云计算
·
腾讯云
·
llama
微调一个自己的大模型(腾讯云cloud studio + llama factory)
最近就是新项目和老项目一起支撑,老项目的人以为我还在支撑,然后新项目的人以为我不在支撑老项目了。本来我还乐呵呵的两边一起支撑,后来领导突然问我怎么还在干老项目,让我把老项目的事情交给另一个同事去干。
smartcat2010
11 天前
llama
LLama系列模型简要概述
LLama-1(7B, 13B, 33B, 65B参数量;1.4T tokens训练数据量)要做真正Open的AI
木亦汐丫
11 天前
lora
·
大模型
·
微调
·
chatglm
·
llama
·
llama-factory
【大模型系列篇】LLaMA-Factory大模型微调实践 - 从零开始
前一次我们使用了NVIDIA TensorRT-LLM 大模型推理框架对智谱chatglm3-6b模型格式进行了转换和量化压缩,并成功部署了推理服务,有兴趣的同学可以翻阅《NVIDIA TensorRT-LLM 大模型推理框架实践》,今天我们来实践如何通过LLaMA-Factory对大模型进行Lora微调。
CV遥感视觉笔记
12 天前
人工智能
·
笔记
·
深度学习
·
语言模型
·
llama
笔记04--零基础创建个人本地大模型知识库ollama+Dify
官网下载直接下一步下一步即可,没有魔法的朋友可以留言,文章中所用到的文件也给打包了,大家可以直接下载使用通过云盘下载使用。
Nue.js
14 天前
docker
·
ai
·
llama
ollama的本地部署内含推荐模型!
打开cmd后输入:查看命令ollama --version 查看模型仓库:ollama list 显示模型信息: ollama show 在cmd中去拉模型: ollama pull 模型名称 删除模型:ollama rm 模型名称