llm

yaocheng的ai分身27 分钟前
llm·claude
Highlights from the Claude 4 system promptAnthropic 会在发布说明中公开其聊天模型的大部分系统提示词。他们最近发布了 Claude Opus 4 和 Claude Sonnet 4 的新提示词。我非常喜欢研究这些提示词,因为它们就像是一份“非官方用户手册”,告诉你如何更好地使用这些工具。以下是我挑选的重点内容,并包括了 Anthropic 未公开、但后来被泄露的工具提示词部分。
掘我的金30 分钟前
llm·aigc
深入解析Stream函数与生成器本质设计选择:Anthropic提供两种流式接口是为了满足不同场景需求:生成器优势:性能数据:演进方向:
爱编程的喵1 小时前
前端·llm·html
从Web 1.0到LLM AI时代:前端如何直接调用大模型服务在这个AI浪潮席卷全球的时代,你是否还在疑惑"大模型在哪?"如何在自己的项目中集成AI能力?今天我们就来聊聊如何用最简单的方式,让你的前端页面直接调用大模型服务,告别复杂的后端配置,拥抱LLM AI时代的开发新范式。
掘我的金33 分钟前
llm·aigc
Prompt Cache 与 Streaming:核心机制与优化实践以上实现严格遵循 Anthropic 官方 SDK 的最佳实践,关键点包括:建议结合官方文档查看参数更新:Anthropic API Docs
lowcode1 小时前
人工智能·llm·mcp
MCP协议在LLM系统中的架构与实现原理研究模型上下文协议(Model Context Protocol, MCP) 是由Anthropic公司(Claude模型的发布方)提出的一种开放协议,旨在标准化大型语言模型(LLM)与外部数据源、工具和服务之间的交互方式。可以将MCP类比为AI应用的“USB-C接口”:通过统一的接口协议,让不同的外部功能模块都能方便地接入LLM,就像各种设备都能通过USB-C连接一样。这种标准化的上下文接入机制解决了以往每新增一个数据源就需定制集成的碎片化问题,从而提升LLM应用的功能性、灵活性和可扩展性。
硬核隔壁老王17 小时前
人工智能·程序员·llm
一篇文章带你快速理解 MCPMCP (Multi-Code Platform,多代码平台) 是一个面向开发者和企业的统一编程协作平台,旨在提升开发效率、简化项目管理、实现代码共享与团队协同。它集成了代码托管、版本控制、CI/CD 流水线、自动化测试、文档管理等功能,支持多种编程语言和开发框架。
我是王大你是谁19 小时前
人工智能·llm
QWEN2.5-3B 蒸馏 QWEN2.5-0.5B自己制作的数据,训练数据 2700 条,测试数据 290 条,格式如下:1 张 4090日志如下,准确率为 0 :
AI大模型知识20 小时前
人工智能·llm
构建LangChain代理以实现流程自动化示例LangChain它是构建基于LLM的应用程序的最热门框架之一。其全面的工具和组件集允许我们使用几乎任何LLM构建端到端AI解决方案。
大尾巴青年1 天前
langchain·llm
06 一分钟搞懂langchain的Agent是如何工作的一个典型langchain创建Agent的流程:我们来看下Agent是怎么工作的代理的初始化通常通过工厂方法完成,如 initialize_agent(tools, llm, agent="zero-shot-react-description"):
小阿鑫1 天前
大模型·llm·agent·大模型落地·ai落地·mcp·mcpserver
记录第一次公司内部分享:如何基于大模型搭建企业+AI业务Hello, 大家好,我是程序员海军, 全栈开发 |AI爱好者 | 独立开发。记录第一次在公司内部分享AI+业务 落地实践。
硬核隔壁老王1 天前
人工智能·程序员·llm
从零开始搭建RAG系统系列(三):数据准备与预处理1. 数据加载(Data Loading)我们需要从文件系统中加载文档。Lang Chain提供了多种DocumentLoader`来处理不同类型的文件。
硬核隔壁老王1 天前
人工智能·程序员·llm
从零开始搭建RAG系统系列(四):⽂档向量化与索引构建⽬标: 将预处理后的⽂本块(chunks)转换为数值向量(embeddings),并将这些向量及其对应的⽂本内容存储到向量数据库中,构建⼀个可供⾼效检索的索引。
AI大模型知识2 天前
人工智能·llm
如何微调推理大模型?以Qwen3/DeepSeek-R1为例首先先简单介绍下两个系列的模型:DeepSeek-R1是由深度求索公司推出的首款推理模型,该模型在数学、代码和推理任务上的表现优异。深度求索不仅开源了DeepSeek-R1模型,还发布了从DeepSeek-R1基于Llama和Qwen蒸馏而来的六个密集模型,在各项基准测试中均表现出色。本文以蒸馏模型DeepSeek-R1-Distill-Qwen-7B为例,为您介绍如何微调该系列模型。
用户24003619235002 天前
人工智能·llm
一文弄懂大模型RAG顾名思义,通过检索外部数据,增强大模型生成效果。可以理解为让大模型先翻书,再回答问题,比如将公司内部的工作流程大模型肯定是不知道,但是我先将工作手册先给他看,当我再询问他就知道了
AI大模型2 天前
程序员·llm
大模型系列炼丹术(一):从tokenizer说起,为LLM自回归预训练准备数据集本文是大模型系列炼丹术的第一篇,首先给大家介绍了如何从头开始实现一个自定义tokenizer,用于将原始文本数据转化为模型能够理解的格式。
AI大模型2 天前
程序员·llm·ollama
Ollama系列教程(八):semantic kernel调用ollama接口我是对本地大模型有执念的!因为它安全性好,数据完全被自己掌控。在前面的内容里面分享了如何使用OllamaSharp访问ollama接口,今天分享如何使用Semantic Kernel来访问ollama接口。
智泊AI2 天前
llm
为什么这个周末你应该搭建一个MCP 服务器?自AI爆发以来,我还没见过这么好的机会。如果你是一名程序员、副业者,或者只是在玩AI的,你需要抓住这个机会。
Sherry0072 天前
llm·ai编程
我是如何利用大语言模型(LLM)帮助我写代码的(译)原文链接:Here’s how I use LLMs to help me write code原文作者:Simon Willison
仙人掌_lz2 天前
人工智能·深度学习·ai·语言模型·自然语言处理·llm·transformer
优化 Transformer 模型:基于知识蒸馏、量化技术及 ONNXTransformer 模型非常强大,但往往太大太慢,不适合实时应用。为了解决这个问题,我们来看看三种关键的优化技术:知识蒸馏、量化和ONNX 图优化。这些技术可以显著减少推理时间和内存使用。