language model

桂花很香,旭很美4 天前
笔记·架构·language model
Anthropic Agent 工程实战笔记(二)工具设计本模块主要参考(官方)在模块一确定「要用工具」之后,工具设计直接决定 Agent 能多稳、多省 context、多好调试。Anthropic 把工具定义为「确定性系统(你的实现)与非确定性系统(Agent)之间的合约」——和传统 API 不同,工具要允许 Agent 用多种合理策略都能成功,而不是只支持一种固定用法。本模块的线索是:先理解这份「合约」的特殊性(§1)→ 再学会选对工具、写好返回与错误(§2–§4)→ 再用评测驱动迭代(§5)→ 最后用到高级用法与 Think(§6)。
桂花很香,旭很美5 天前
笔记·架构·language model
Anthropic Agent 工程实战笔记(一)架构与选型本模块主要参考(官方)架构与选型是整条学习路径的起点:不先搞清楚「要不要 Agent、要哪种形态」,后面工具、上下文、长任务都会失去前提。Anthropic 的观察 [1] 是:最成功的落地案例往往用的是简单、可组合的模式,而不是一上来就上复杂框架或多 Agent。本模块要建立三个习惯:(1)能用简单方案就不加复杂度;(2)能说清 Workflow(预定义步骤编排 LLM 与工具)与 Agent(模型自主决定步骤与工具)的差别,并会选 Building Block(可组合的编排模式,见 §3);(3)把工
桂花很香,旭很美5 天前
笔记·架构·language model
Anthropic Agent 工程实战笔记(三)上下文与记本模块主要参考(官方)模块二解决了「工具选什么、返回什么」;但工具的输出会不断塞进 context,长对话、长任务下必然遇到装不下、记不住。上下文与记忆要解决的是:在 context 有限、且存在注意力预算(模型对长 context 的有效关注有限)与 context rot(越长召回越差)的前提下,如何用最少的高信号 token 达成目标,以及如何跨轮、跨窗保持连贯。本模块先讲「为什么 context 是有限资源」(§1)→ 再讲检索与按需加载(§2)→ 再讲长时程的三种手段:compaction(摘要
桂花很香,旭很美6 天前
language model
OpenClaw(大龙虾)技术学习分享本文对开源个人 AI 助手 OpenClaw(社区俗称「大龙虾」)做技术拆解与学习汇总,涵盖背景与定位、架构总览、核心技术点、源码解读、场景推荐、迁移建议、相关技术/项目对比、安全与权限、局限与延伸,并附完整参考文献,便于读者按引用核实与延伸阅读。全文以官方文档与仓库为准,社区说法均标明来源。
桂花很香,旭很美7 天前
python·language model
大模型项目实战:Python 异步——提速、流式、多 Agent本文是一份可直接抄到项目里用的实战指南:把现有同步 LLM 调用改成异步、加并发/流式/限流、单 Agent 多 tool 与多 Agent 编排,全部给出可运行代码。面向已会用 Python 调 LLM API(同步写法)、想在真实项目里落地的开发者。示例基于 OpenAI 兼容 API(ModelScope、OpenAI 等),环境与版本见第 0 节。
lbb 小魔仙2 个月前
人工智能·language model
ModelEngine深度评测:从智能体开发到可视化编排的全栈AI工程实践在当今快速发展的AI应用开发领域,开发者面临着一个核心挑战:如何在保持灵活性的同时,降低构建复杂AI系统的技术门槛。ModelEngine作为新兴的AI应用开发平台,以其独特的智能体架构和可视化编排能力,正在重新定义AI应用开发的工作流程。 本文将从实际开发者的视角,通过完整的项目实践,深入评测ModelEngine的核心功能,并与当前主流平台进行对比分析,为技术选型提供参考依据。 🚀 个人主页 :有点流鼻涕 · CSDN 💬 座右铭 : “向光而行,沐光而生。”
Stream_Silver5 个月前
java·python·学习·langchain·language model
LangChain入门实践3:PromptTemplate提示词模板详解大多数LLM应用程序不会直接将用户输入传递到LLM中。通常,它们会将用户输入添加到一个更大的文本片段中,称为提示模板,这是一种特殊的文本,该模板提供了有关特定任务的附加上下文,能够更好地引导模型生成预期的输出。
中国胖子风清扬5 个月前
后端·ai·rust·ai编程·language model·ai-native·mcp
Rust MCP:构建智能上下文协议的未来桥梁Model Context Protocol (MCP) 是一种新兴的协议标准,旨在为 AI 模型提供结构化的上下文交互能力。Rust MCP 项目则是这一协议在 Rust 语言中的实现,通过类型安全和并发优势,为开发者提供了一个强大而灵活的框架,用于构建能够与 AI 模型智能交互的应用程序。
东风中的蒟蒻7 个月前
人工智能·language model
MOE 速览在当代大型语言模型(LLM)的发展历程中,一个核心驱动力是所谓的“缩放法则”(Scaling Laws),该法则揭示了模型性能与参数数量、数据集规模以及训练计算量之间的强相关性1。这一发现催生了一场军备竞赛,研究机构和企业纷纷致力于构建参数规模日益庞大的模型。然而,这种以规模换性能的策略在传统的“稠密”(Dense)架构中遇到了根本性的瓶颈。在稠密模型中,每一次前向传播(Forward Pass)都会激活模型中的每一个参数来处理输入的每一个令牌(Token)2。这种设计导致了模型容量(总参数量)与推理成本
技术便签9 个月前
人工智能·ai编程·language model·多智能体·智能体
第一篇:揭示模型上下文协议(MCP):AI的通用连接器模型上下文协议(MCP)是 Anthropic 于 2024 年末推出的一项开放标准,旨在彻底改变人工智能(AI)模型与外部数据源及工具的连接方式。它被誉为 AI 应用的“USB-C 接口”,其核心目的是标准化 AI 助理与数据所在系统(包括内容库、业务工具和开发环境)的连接,从而帮助前沿模型生成更优质、更相关的响应。
Stara05111 年前
llm·transformer·language model·deepseek
自注意力机制的演进-从Transformer架构到DeepSeek-R1模型的深度语义理解革新2025年,我国发布了开创性且高性价比的大语言模型-DeepSeek-R1,推动了AI领域的重大变革。本章节回顾了LLM的发展历程,其起点可追溯至2017年Transformer架构的提出,该架构通过自注意力机制(Self-Attention)彻底革新了自然语言处理技术。到2018年,BERT与GPT模型显著提升了上下文理解与文本生成能力;2020年,GPT-3凭借1750亿参数展示了卓越的[少样本]与[零样本]学习能力,但其生成内容存在与事实不符的幻觉问题,成为关键挑战。为应对这一问题,2022年Ope
地中海~1 年前
人工智能·笔记·language model·攻防
Certifying LLM Safety against Adversarial Promptingerase-and-checkerase:逐一删除prompt中的词元(token)check:用安全过滤器检查生成的子序列。
今天也想MK代码1 年前
ai·语言模型·swift·model·language model
基于ModelScope打造本地AI模型加速下载方案在AI开发过程中,模型下载一直是一个让开发者头疼的问题。目前主流的模型下载渠道如下:Hugging Face (https://huggingface.co/)
营赢盈英2 年前
python·ai·llm·language model·openai api
How to import openai package using jupyter notebook?题意:如何在 Jupyter Notebook 中导入 openai 包?I am getting the below error message when importing openai as ai using google jupyter notebook:
RuizhiHe2 年前
人工智能·gpt·语言模型·chatgpt·gpt-3·language model
从零开始实现大语言模型(二):文本数据处理神经网络不能直接处理自然语言文本,文本数据处理的核心是做tokenization,将自然语言文本分割成一系列tokens。
RuizhiHe2 年前
人工智能·gpt·语言模型·gpt-3·embedding·language model
从零开始实现大语言模型(三):Token Embedding与位置编码Embedding是深度学习领域一种常用的类别特征数值化方法。在自然语言处理领域,Embedding用于将对自然语言文本做tokenization后得到的tokens映射成实数域上的向量。
LDG_AGI2 年前
人工智能·python·深度学习·机器学习·langchain·aigc·language model
【机器学习】Google开源大模型Gemma2:原理、微调训练及推理部署实战目录一、引言二、模型简介2.1 Gemma2概述2.2 Gemma2 模型架构三、训练与推理3.1 Gemma2 模型训练
星夜猫3 年前
学习·langchain·language model
LangChain与大模型的学习解决办法我的第一个调用实例,感觉还是很神奇的“temperature” : OpenAI的API有效载荷中,"temperature"选项是一个控制语言模型输出的随机性或创造性的参数。当使用语言模型生成文本时,它通常会输出根据输入和先前训练数据确定为最可能的单词或词序列。然而,增加输出的随机性可以帮助模型创建更具创意和有趣的输出。"temperature"选项实际上控制着随机性的程度。将温度设置为较低的值将导致输出更可预测和重复,而较高的温度会导致更多种类和不可预测的输出。例如,将温度设置为0.5将导致较
我是有底线的