技术栈
模型微调
爱吃泡芙的小白白
5 天前
机器学习
·
集成学习
·
模型微调
·
调参优化
·
模型调参方法
机器学习——集成学习框架(GBDT、XGBoost、LightGBM、CatBoost)、调参方法
对训练样本较少的结构化数据领域,Boosting算法仍然是常用项XGBoost、CatBoost和LightGBM都是以决策树为基础的集成学习框架
淘小欣
11 天前
开发语言
·
人工智能
·
ai
·
swift
·
模型微调
10分钟打造专属AI助手:用ms-swift实现自我认知微调
想象一下,你是辛辛苦苦利用开源模型打造一个专属的AI产品助手。这个助手不仅能高效解答客户的问题,还能自豪地告诉大家:“我是某某打造的某某助手,代表着我们的品牌和价值观。” 然而,当前市面上的开源AI模型虽然技术先进,通常回答比较”官方“,它们没有独特的名称或身份,无法体现你的个性化需求。
爱吃泡芙的小白白
23 天前
大模型
·
数据生成
·
模型微调
·
模型训练
模型微调——模型性能提升方法及注意事项(自用)
名词补充人为为训练数据标注的标签称为黄金标准或真实值,这个过程一定程度上保证训练的准确性,但是其人工标注的成本和时间很高,并且标注的标签受人的主观因素影响。
m0_37559973
1 个月前
llama
·
模型微调
大模型管理工具:LLaMA-Factory
目录一、安装与环境配置二、启动 Web 界面三、数据准备四、模型训练五、模型评估七、模型导出八、API服务部署
kcarly
1 个月前
人工智能
·
深度学习
·
模型微调
·
模型训练
·
微软开源
大模型训练微调技术介绍
大模型训练微调技术是人工智能领域中的一项重要技术,旨在通过少量特定领域的数据对预训练模型进行进一步训练,使其更好地适应具体任务或应用场景。以下是关于大模型训练微调技术的详细介绍:
Light60
2 个月前
api接口
·
模型微调
·
deepseek r1
·
本地化部署
·
ai生产力
Deepseek R1模型本地化部署与API实战指南:释放企业级AI生产力
本文深入解析Deepseek R1开源大模型的本地化部署流程与API集成方案,涵盖从硬件选型、Docker环境搭建到模型微调及RESTful接口封装的完整企业级解决方案。通过电商评论分析和智能客服搭建等案例,展示如何将前沿AI技术转化为实际生产力。教程支持Linux/Windows双平台部署,提供15个可复现的代码片段,助力开发者在3小时内完成从零到生产的转变。
算家云
3 个月前
人工智能
·
ai
·
语言模型
·
自然语言处理
·
ai写作
·
智能对话
·
模型微调
BlueLM:以2.6万亿token铸就7B参数超大规模语言模型
BlueLM 是由 vivo AI 全球研究院自主研发的大规模预训练语言模型,本次发布包含 7B 基础 (base) 模型和 7B 对话 (chat) 模型,同时我们开源了支持 32K 的长文本基础 (base) 模型和对话 (chat) 模型。
余生H
5 个月前
人工智能
·
深度学习
·
机器学习
·
全栈
·
模型微调
大模型进阶微调篇(一):以定制化3B模型为例,各种微调方法对比-选LoRA还是PPO,所需显存内存资源为多少?
在大模型的微调过程中,选择合适的方法来高效地提高模型性能是非常关键的。今天我们来聊一聊两种常见的微调方式——LoRA(Low-Rank Adaptation)和 PPO(Proximal Policy Optimization),以及它们各自的优缺点和适用场景。通过详细的对比分析,希望能帮助你选择最适合你的应用需求的微调策略。
AI程序猿人
6 个月前
数据库
·
人工智能
·
ai
·
大模型
·
facebook
·
模型微调
·
大模型技术
使用Facebook Messenger数据进行AI模型微调的完整指南
在这个数字化时代,个性化的AI助手已经成为热门话题。而微调模型是实现这一目标的核心方法之一。本文将介绍如何从Facebook Messenger中提取对话数据,并使用这些数据对AI模型进行微调,从而创建更符合个人需求的AI助手。
GISer Liu
8 个月前
大数据
·
人工智能
·
python
·
chatgpt
·
llm
·
模型微调
·
星火大模型
基于Spark AI的进行模型微调(DataWhale AI夏令营)
Hello,大家好,我是GISer Liu😁,一名热爱AI技术的GIS开发者,本文参与活动是2024 DataWhale AI夏令营第四期 大模型微调 希望我的文章能帮助到你;😲
文艺倾年
8 个月前
人工智能
·
gpt
·
ai
·
大模型
·
nlp
·
模型微调
【全栈实战】大模型自学:从入门到实战打怪升级,20W字总结(二)
💡学术论文、期刊、文献、会议的区别:💡论文(paper)分类:💡概念区分:学术期刊(AcademicJournal)分类:
MonkeyKing_sunyuhua
9 个月前
llama
·
模型微调
Llama 3 模型微调的步骤
创建一个新的conda环境:激活刚刚创建的conda环境:下载LLama_Factory源码:建议在执行项目的依赖安装之前升级 pip 的版本,如果使用的是旧版本的 pip,可能无法安装一些最新的包,或者可能无法正确解析依赖关系。升级 pip 很简单,只需要运行命令如下命令:
MonkeyKing_sunyuhua
9 个月前
知识库
·
模型微调
模型微调和使用知识库的区别
模型微调和使用知识库在增强人工智能系统性能方面有不同的目标和方法。以下是两者的主要区别:定义:过程:优点:
大模型与计算机视觉
10 个月前
人工智能
·
算法
·
大模型
·
aigc
·
大语言模型
·
llama
·
模型微调
使用 LLaMA-Factory 实现对大模型函数调用功能
节前,我们星球组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学。针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。
大模型与计算机视觉
10 个月前
面试
·
职场和发展
·
大模型
·
aigc
·
模型微调
20 道大模型面试问题(含答案)
大型语言模型在生成式人工智能(GenAI)和人工智能(AI)中正变得越来越有价值。这些复杂的算法增强了人类的能力,并在各个领域促进了效率和创造力。
大模型与计算机视觉
1 年前
人工智能
·
深度学习
·
算法
·
大模型
·
检索增强
·
模型微调
·
llamaindex
增强大模型高效检索:基于LlamaIndex ,构建一个轻量级带有记忆的 ColBERT 检索 Agent
在自然语言处理领域,高效检索相关信息的能力至关重要。将对话式记忆集成到文档检索系统中已经成为增强信息检索代理效果的强大技术。
热爱生活的五柒
1 年前
人工智能
·
深度学习
·
bert
·
迁移学习
·
模型微调
基于迁移学习的语义句子分类器(微调一个预训练模型的案例,即迁移学习)
项目介绍:本任务的目的是利用预训练好的模型来微调自己的微软研究释义语料库数据集,实现文本分类的任务,具体是判断两个句子的意思是否相同。在微调阶段,我们将整个模型的参数都参与训练,以便模型能够从新的数据集中学习到适合特定任务的特征表示。任务中使用的是bert-base-uncased预训练模型,实现了加载预训练模型并在 MRPC 任务上进行微调的过程,以便模型能够学习到 MRPC 数据集中的文本语义,并用于句子对分类任务。
机器学习社区
1 年前
深度学习
·
算法
·
大模型
·
llama
·
模型部署
·
模型微调
·
模型推理
用 LMDeploy 高效部署 Llama-3-8B,1.8倍vLLM推理效率
节前,我们星球组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。
深度学习算法与自然语言处理
1 年前
人工智能
·
算法
·
自然语言处理
·
大模型
·
gpu
·
模型微调
·
模型训练
大模型实战案例:8卡环境微调马斯克开源大模型 Grok-1
节前,我们星球组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。
又见阿郎
1 年前
大模型
·
模型微调
聊聊大模型微调训练全流程的思考
转载请注明出处:https://www.cnblogs.com/zhiyong-ITNote参考现有的中文医疗模型:MedicalGPT、CareGPT等领域模型的训练流程,结合ChatGPT的训练流程,总结如下: 在预训练阶段,模型会从大量无标注文本数据集中学习领域/通用知识;其次使用{有监督微调}(SFT)优化模型以更好地遵守特定指令;最后使用对齐技术使LLM更有用更安全的响应用户的提示。 训练流程的四个阶段,分别如下: