llama3

AAI机器之心1 个月前
人工智能·chatgpt·大模型·llm·llama·mamba·llama3
LIama 3+Mamba联手,推理速度提升1.6倍这是来自Together AI的新作,通过蒸馏将Transformer和Mamba模型结合到了一起,同时还为混合模型涉及了推理加速算法
逐梦苍穹2 个月前
人工智能·论文·llama·llama3
速通LLaMA3:《The Llama 3 Herd of Models》全文解读🍃作者介绍:双非本科大四网络工程专业在读,阿里云专家博主,专注于Java领域学习,擅长web应用开发,目前开始人工智能领域相关知识的学习 🦅个人主页:@逐梦苍穹 📕所属专栏:🌩 专栏①:人工智能; 🌩 专栏②:速通人工智能相关论文 🌻gitee地址:xzl的人工智能代码仓库 ✈ 您的一键三连,是我创作的最大动力🌹
花花少年3 个月前
llama-factory·llama3·scnet·dcu·国产异构加速卡
快速体验LLaMA-Factory 私有化部署和高效微调Llama3模型(曙光超算互联网平台异构加速卡DCU)本文以 LLaMA-Factory 为例,在超算互联网平台SCNet上使用异构加速卡AI 显存64GB PCIE,私有化部署Llama3模型,并对 Llama3-8B-Instruct 模型进行 LoRA 微调、推理和合并。
一个处女座的程序猿4 个月前
大语言模型·llama3
LLMs之llama3-from-scratch:llama3-from-scratch(从头开始利用pytorch来实现并解读LLaMA-3模型的每层代码)的简介、核心思路梳理LLMs之llama3-from-scratch:llama3-from-scratch(从头开始利用pytorch来实现并解读LLaMA-3模型的每层代码)的简介、核心思路梳理
段智华5 个月前
transformer·llama3·reft
Llama模型家族之Stanford NLP ReFT源代码探索 (四)Pyvene论文学习基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华5 个月前
llama3·reft
Llama模型家族之Stanford NLP ReFT源代码探索 (一)数据预干预基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华5 个月前
llama3·reject sample
Llama模型家族之拒绝抽样(Rejection Sampling)(五)蒙特卡罗算法在拒绝抽样中:均匀分布与样本接受标准基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华5 个月前
llama3·reject sample
Llama模型家族之拒绝抽样(Rejection Sampling)(九) 强化学习之Rejection Sampling基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华5 个月前
llama3·reft
Llama模型家族之Stanford NLP ReFT源代码探索 (二)Intervention Layers层基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华5 个月前
llama3·reft
Llama模型家族之使用 ReFT技术对 Llama-3 进行微调(三)为 ReFT 微调准备模型及数据集基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华5 个月前
llama3·reject sample
Llama模型家族之拒绝抽样(Rejection Sampling)(二)均匀分布简介基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
疯狂的小强呀5 个月前
llama3·llama-factory微调
新手教程之使用LLaMa-Factory微调LLaMa3如果你尝试过微调大模型,你就会知道,大模型的环境配置是非常繁琐的,需要安装大量的第三方库和依赖,甚至需要接入一些框架。 但是大模型微调的方法又是非常类似的,那有没有一种工具可以统一这些操作,让大模型微调变成一个简单易上手的事情,LLaMa-Factory就是为了解决这个问题应运而生
wxl7812275 个月前
游戏·macos·2048·ollama·metagpt·llama3·自动开发游戏
mac环境基于llama3和metaGPT自动开发2048游戏1.准备虚拟环境conda create -n metagpt python=3.9 && conda activate metagpt
段智华6 个月前
llama3·raif·rhlf
Llama模型家族之RLAIF 基于 AI 反馈的强化学习(一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华6 个月前
llama3·rlaif
Llama模型家族之RLAIF 基于 AI 反馈的强化学习(八) RLAIF 代码实战基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华6 个月前
rlhf·llama3·raif
Llama模型家族之RLAIF 基于 AI 反馈的强化学习(三) RLAIF 的工作原理基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华6 个月前
llama3·reward model
Llama模型家族训练奖励模型Reward Model技术及代码实战(一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华6 个月前
lora·llama3
Llama模型家族之使用 Supervised Fine-Tuning(SFT)微调预训练Llama 3 语言模型(十) 使用 LoRA 微调常见问题答疑基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华6 个月前
llama-factory·llama3
Llama模型家族之使用 Supervised Fine-Tuning(SFT)微调预训练Llama 3 语言模型(一) LLaMA-Factory简介基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
段智华6 个月前
transformer·llama3·llama guard
Llama 3 模型家族构建安全可信赖企业级AI应用之使用 Llama Guard 保护大模型对话 (八)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)