技术栈
大模型
山顶夕景
2 天前
大模型
·
llm
·
agent
·
智能体
·
llama-index
【LLM-agent】(task2)用llama-index搭建AI Agent
步骤:一个典型的 ReActAgent 遵循以下循环:输出的结果:(1)计算的例子:(2)天气预报的例子
程序猿000001号
2 天前
大模型
·
本地部署
·
deepseek
DeepSeek本地部署详细指南
随着人工智能技术的飞速发展,本地部署大模型的需求也日益增加。DeepSeek作为一款开源且性能强大的大语言模型,提供了灵活的本地部署方案,让用户能够在本地环境中高效运行模型,同时保护数据隐私。以下是详细的DeepSeek本地部署流程。
songqq27
3 天前
阿里云
·
大模型
【快速上手】阿里云百炼大模型
为了创建自己的知识库,本文介绍一下阿里云的百炼大模型,方便大家快速上手!快速查询自己想要的内容。阿里云登录 - 欢迎登录阿里云,安全稳定的云计算服务平台
两棵雪松
3 天前
大模型
对比使用DeepSeek与文新一言,了解DeepSeek的关键技术论文
DeepSeek是国内大模型技术的新秀,最近也在业界和媒体界火爆出圈,所以想学习一下其技术。 大模型时代,学习知识,当然首先想到利用大模型,由于在过去一年,对DeepSeek使用不多,所以想和文新一言(4.0 Turbo)对比使用。 通过对比,针对同一个问题“DeepSeek发扬开源文化,将核心技术都以论文形式发表,关键的技术论文都有哪些?”,文心一言效果明显好很多,但是这可能和DeepSeek的“联网搜索暂不可用”有关系。 以下是使用结果 文新一言问答结果:
大模型之路
5 天前
人工智能
·
大模型
·
llm
大模型(LLM)工程师实战之路(含学习路线图、书籍、课程等免费资料推荐)
新春佳节,蛇年大吉!愿您在新的一年里,生活如蛇行般灵动自如,事业似蛇舞般活力四射。蛇年,愿您福运缠身,财源广进,家庭和睦,幸福安康!今天给大家推荐一些大模型(LLM)工程师相关的免费学习资料,先收藏起来哦
zaim1
5 天前
人工智能
·
ai
·
大模型
·
llm
·
错误
·
error
·
误差
计算机的错误计算(二百二十五)
摘要 利用大模型化简计算 实验表明,大模型的推理化简倒没问题。但是,数值计算有问题。本节利用(二百二十四)中涉及的大模型的另外一个版本来计算。
振华OPPO
6 天前
深度学习
·
神经网络
·
大模型
·
deepseek
DeepSeek大模型技术解析:从架构到应用的全面探索
在人工智能领域,大模型的发展日新月异,其中DeepSeek大模型凭借其卓越的性能和广泛的应用场景,迅速成为业界的焦点。本文旨在深入剖析DeepSeek大模型的技术细节,从架构到应用进行全面探索,以期为读者提供一个全面而深入的理解。官网:https://www.deepseek.com/
Always_Shine
7 天前
深度学习
·
神经网络
·
自然语言处理
·
大模型
·
llama2
llama-2-7b权重文件转hf格式及模型使用
目录1. obtain llama weights2. convert llama weights files into hf format
蛐蛐蛐
7 天前
人工智能
·
大模型
·
llama
在Ubuntu上用Llama Factory命令行微调Qwen2.5的简单过程
半年多之前写过一个教程:在Windows上用Llama Factory微调Llama 3的基本操作_llama-factory windows-CSDN博客
好评笔记
7 天前
论文阅读
·
人工智能
·
深度学习
·
机器学习
·
面试
·
大模型
·
aigc
多模态论文笔记——TECO
大家好,这里是好评笔记,公主号:Goodnote,专栏文章私信限时Free。本文详细解读多模态论文TECO(Temporally Consistent Transformer),即时间一致变换器,是一种用于视频生成的创新模型,旨在解决现有视频生成算法在处理长时依赖关系和时间一致性方面的不足。
好评笔记
8 天前
论文阅读
·
深度学习
·
机器学习
·
大模型
·
aigc
·
transformer
·
面试八股
多模态论文笔记——VDT
大家好,这里是好评笔记,公主号:Goodnote,专栏文章私信限时Free。本文详细解读多模态论文《VDT》,首次在视频扩散的生成模型中使用Transformer,这和后面的Sora架构最接近。
微学AI
8 天前
人工智能
·
大模型
·
llm
·
gpu算力
GPU算力平台|在GPU算力平台部署可图大模型Kolors的应用实战教程
蓝耘GPU算力平台专为高性能计算设计,广泛应用于机器学习、人工智能及视觉特效渲染等高计算需求领域。其主要优势包括: 智能资源调度:平台能够根据工作负载需求精确调配最新的NVIDIA GPU(如RTX 4090、RTX 3090、A100和A800),满足各种复杂场景的计算需求。 优化的Kubernetes架构:基于Kubernetes构建,针对大规模GPU任务进行了深度优化,支持灵活调整计算资源,确保高效利用和快速响应。 按需付费模式:采用按需计费,用户只需支付实际使用的资源费用,有效控制成本,避免浪费,
木亦汐丫
9 天前
大模型
·
prompt
·
cot
·
思维链
·
上下文学习
·
icl
·
post-training
大模型从零开始——提示工程 Prompt
文章目录上下文学习演示示例选择选择依据选择策略直接检索聚类检索迭代检索性能影响因素预训练数据预训练模型
AI明说
9 天前
大数据
·
人工智能
·
大模型
·
rag
大模型开发 | RAG在实际开发中可能遇到的坑
近年来,大语言模型 (LLM) 的飞速发展令人瞩目,它们在各个领域展现出强大的应用潜力。然而,LLM 也存在一些固有的局限性,例如知识更新滞后、信息编造 (幻觉) 等问题。为了克服这些挑战,检索增强生成 (Retrieval-Augmented Generation, 简称 RAG) 技术应运而生,它将 LLM 与外部知识检索相结合,为生成内容提供更丰富、更准确的上下文信息,从而显著提升了 LLM 的性能和可靠性。
Canliture
9 天前
重构
·
大模型
·
静态分析
·
软件工程
·
缺陷检测
·
内存安全
·
读论文
ICSE‘25 LLM Assistance for Memory Safety
不知道从什么时候开始,各大技术社区,技术群聊流行着 “用Rust重写!” ,放一张图(笑死… 这不, 随着大模型技术的流行,大家都在探索如何让大模型自动完成仓库级别(全程序)的代码重构,代码变换(Refactor,Transformer)
herosunly
9 天前
人工智能
·
大模型
·
年度总结
·
博客之星
2024:人工智能大模型的璀璨年代
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于大模型算法的研究与应用。曾担任百度千帆大模型比赛、BPAA算法大赛评委,编写微软OpenAI考试认证指导手册。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。授权多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。
HyperAI超神经
10 天前
人工智能
·
microsoft
·
大模型
·
生成式ai
·
nature
·
材料设计
·
逆向设计
直接设计目标属性材料!微软MatterGen模型重磅开源,用生成式AI重新定义材料逆向设计新范式
2023 年 12 月,谷歌 DeepMind 在「Nature」上发布其在材料化学领域的深度学习模型 GNoME,宣称发现了 220 万种新的无机材料的晶体结构。距离该突破性成就不到一周,微软就宣布将要推出用于材料逆向设计的生成式 AI 模型 MatterGen,并向大家表示,未来完全可以根据所需要的性质直接设计新材料的结构。
微学AI
11 天前
大模型
·
llm
·
gpu算力
GPU算力平台|在GPU算力平台部署MedicalGPT医疗大模型的应用教程
云端GPU算力平台专为GPU加速计算设计,是一个高性能计算中心,广泛应用于软件和信息技术服务领域。该平台提供强大且灵活扩展的GPU资源,适用于机器学习、人工智能以及视觉特效渲染等高计算需求的应用场景。以下是其核心优势: 智能资源调度:平台具备高度定制化的资源分配能力,能够根据具体的工作负载需求精确调配计算资源。无论是最新的NVIDIA RTX 4090、RTX 3090,还是高性能的A100和A800 GPU,平台均能应对各种复杂场景下的计算需求。 Kubernetes架构优化:基于Kubernetes架
drebander
11 天前
pytorch
·
python
·
大模型
PyTorch 模型 浅读
PyTorch 是一个广泛使用的深度学习框架,它被广泛应用于机器学习、自然语言处理、计算机视觉等多个领域。本文将详细介绍 PyTorch 模型的原理、一个简单的 Demo 以及它的常见应用场景,帮助你更好地理解 PyTorch 的核心概念和实际使用。
Light Gao
11 天前
人工智能
·
ai
·
中间件
·
大模型
AI赋能未来:Agent能力与AI中间件平台对行业的深远影响
随着人工智能技术的快速发展,AI正在逐步渗透到各行各业。尤其是在“Agent”能力的提升以及AI中间件平台(如Dify)开源生态的推动下,技术的入门门槛显著降低,越来越多的开发者、企业甚至非技术人员都能参与到AI的应用与创新中。