大模型

kuokay2 小时前
大模型·agent
一文说清RLHF(人类反馈强化学习)Reinforcement Learning from Human Feedback,即"基于人类反馈的强化学习",是当代大语言模型对齐(Alignment)技术的基石。ChatGPT、Claude、Gemini 等主流模型之所以能够以自然、有帮助、无害的方式与人类对话,背后的关键技术正是 RLHF。
litble2 小时前
人工智能·大模型·llm·moe·kv-cache·pre-ln
如何速成LLM以伪装成一个AI研究者(2)——Pre-LN,KV-Cache优化,MoE如何速成LLM以伪装成一个AI研究者(1)——循环,卷积,编解码器,注意力,Transformer免责声明:作者也是伪装的,有错漏属于正常现象,欢迎评论指正。
山顶夕景4 小时前
大模型·llm·agent·检索·记忆体
【Agent】Long-horizon task的memory系统Deep Research 是 2025 年的一个重点,2026年重点是long-horizon task。 Agent 就是一个 Loop,在三个状态之间循环:Search、Read、Reason
翔云1234565 小时前
大模型·openclaw
OpenClaw记忆系统OpenClaw记忆系统通过文件+索引+智能检索的组合,解决了传统LLM“聊完就忘”的痛点,为AI Agent提供了持久、可控、高效的记忆能力,是构建真正智能个人助手的关键基础。
不会吉他的肌肉男不是好的挨踢男6 小时前
sql·ai·大模型·bi
Windows 下安装 sqlBot部署服务器要求:CPU/内存: 4 核 8 G 磁盘空间: 100G 服务器架构: amd64 或 arm64
天涯明月19936 小时前
人工智能·架构·大模型·agent
QClaw完全指南_AI代理网关架构与多代理管理实战QClaw 采用网关中心化架构,所有消息流经 Gateway,支持多渠道、多账户、多代理并行运行:消息流动路径:
Captain_Data7 小时前
人工智能·python·ai·重构·meta·大模型·裁员
Meta裁员8000人:AI驱动组织重构的技术解析# Meta裁员8000人:AI驱动组织重构的技术解析 ## 前言 2026年4月24日,Meta宣布裁员8000人,同时冻结6000个空缺岗位。这是继2022-2023年"效率之年"后最大规模的组织重构。本文从技术角度分析这次裁员背后的AI战略布局。 ## 1. 为什么是现在? ### 财报数据说话 德州仪器Q1财报给了我们一个很好的参照: ```python # 德州仪器Q1关键财务指标 data = { "营收": "48.25亿美元", "同比增长": "19%", "每股收益": "1.68美元
Liiiks21 小时前
人工智能·gpt·chatgpt·大模型·ai生图·gpt-image-2·图片设计
GPT-Image-2来了!实测:文字渲染99%,UI截图像素级还原,前端工作流要变天了本文从技术架构、核心能力、实测场景和工作流价值四个维度,拆解这款模型对开发者社区意味着什么。GPT-Image-2不再是基于GPT-4o的图像pipeline的改进版。研究负责人Boyuan Chen将其定义为“GPT for images”——一个从头设计的独立架构,模拟文字领域的GPT。
qq_白羊座1 天前
大模型
大模型根据数据媒体类型分类及基于模型的产品特点
龙侠九重天1 天前
人工智能·ai·大模型·llm·token
Token是什么?深入理解计费与上下文窗口如果你正在使用 ChatGPT、Claude、文心一言、通义千问等大模型产品,或者在你的应用中集成了 OpenAI API、Azure OpenAI、阿里云百炼等服务,那么你一定遇到过"Token"这个词。
CoderJia程序员甲1 天前
人工智能·ai·大模型·github·ai教程
GitHub 热榜项目 - 日榜(2026-04-23)生成于:2026-04-23共发现热门项目: 12 个榜单类型:日榜Token赞助:siliconflow
AI算法沐枫1 天前
人工智能·深度学习·神经网络·计算机视觉·大模型·rag
OpenAI Operator vs Claude Act:两大厂商Agent对比最近两年,大家都可以看到AI的发展有多快,我国超10亿参数的LLM,在短短一年之内,已经超过了100个,现在还在不断的发掘中,时代在瞬息万变,我们又为何不给自己多一个选择,多一个出路,多一个可能呢?
人工小情绪1 天前
人工智能·gpt·大模型·transformer
GPT-1 论文深度解读论文标题:Improving Language Understanding by Generative Pre-Training 论文作者:Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever (OpenAI) 发布时间:2018年 核心贡献:提出了“半监督学习”框架,即在大规模无标注文本上进行生成式预训练(Generative Pre-Training),然后在特定下游任务上进行有监督微调(Supervised Fine-Tunin
AI算法沐枫1 天前
人工智能·深度学习·学习·大模型·agent·智能体·ai应用开发
从客服转行AI Agent:半年学习与求职复盘现在很多大学生都有转AI的想法,但每天做的却是收藏一堆教程、刷一堆概念、看一堆“LLM 从入门到精通”,然后继续焦虑、继续拖沓、继续投简历没回音。我就是双非野鸡二本经济学转Agent的,结果把 Agent 这条路跑通之后,简历项目亮点直接写满,后面成功拿到offer30kLLM工作最近还发了2w多的年终奖,舒坦!
淡海水1 天前
人工智能·大模型
【AI模型】概念-MCP【AI&游戏】专栏-直达MCP(模型上下文协议,Model Context Protocol)是由Anthropic提出的开放标准,旨在标准化AI模型与外部工具、数据源之间的通信方式。MCP被称为AI领域的"USB-C"——就像USB接口统一了硬件设备的连接方式一样,MCP统一了AI应用与各种工具的连接方式。
谷哥的小弟1 天前
人工智能·深度学习·机器学习·大模型·强化学习·智能体
大模型核心基础知识(03)—大模型的分类方法与应用场景大模型并不是单一形态的技术对象。随着模型结构、训练方式和应用目标不断扩展,人们通常从不同角度对大模型进行分类。分类的目的,不只是给模型贴上标签,更在于帮助使用者从任务对象、训练路径和功能定位三个层面理解模型的差异,进一步判断不同模型各自适合处理什么问题,适合落到什么场景中。
AI机器学习算法2 天前
人工智能·深度学习·cnn·大模型·ai学习路线
深度学习模型演进:6个里程碑式CNN架构目录1. LeNet(90/98)诞生于1990年,在手写体字符识别领域创造性的引入了卷积神经网络的基本操作,意义重大,可以说是现代卷积神经网络的发展起点。1.1思路引入卷积层+池化层等结构1.2 网络结构输入图像分辨率:28x28结构:(1)卷积层1:5x5 --->输出4个24×24大小的特征图;(2)池化层1:平均池化层 2x2;(3)卷积层2:5x5 --->输出12个8x8大小的特征图;(4)池化层2:2x2(5)全连接层 ---->输出1.3 LeNet-5诞生于1998年,在LeNet初期版
Ztopcloud极拓云视角2 天前
人工智能·阿里云·大模型·token·中美ai
从 OpenRouter 数据看中美 AI 调用量反转:统计口径、模型路由与多云应对方案2026年4月20日,大模型API聚合平台 OpenRouter 发布最新周报:美国近两个月首次反超,背景是 GPT-6 发布后第一个完整统计周。
ACCELERATOR_LLC2 天前
人工智能·pytorch·深度学习·大模型
【DataWhale组队学习】DIY-LLM Task2 PyTorch 与资源核算原文链接这一章表面上在讲pytorch的张量、矩阵乘法、反向传播、参数初始化、数据加载、优化器、训练循环,但真正的重点应该是从资源的角度重新理一遍这些本来就会写的代码。
刘大猫.2 天前
人工智能·gpt·大模型·openai·算力·gpt-oss-120b·gpt-oss-20b
OpenAI通过两个开源模型GPT-OSS-120B和GPT-OSS-20B重新拥抱开放性TLDR : OpenAI推出了两个新开源权重语言模型gpt-oss-120B和gpt-oss-20B,这些模型在推理任务上表现出色,并兼容各种应用,包括智能助手。尽管之前存在安全问题,这些模型集成了先进的过滤机制,以最大程度地减少公共使用的风险。