大语言模型

ONE实验室6 小时前
私有化部署·大语言模型·ai写作助手
开源AI写作助手Writely:私有化部署与架构解析最近在GitHub上看到一个挺有意思的项目,叫 anc95/writely 。乍一看这个名字,你可能会联想到Notion AI或者一些在线写作工具。没错,它的核心定位就是一个 基于大语言模型的写作助手 。但和那些需要付费订阅、功能封闭的SaaS产品不同, writely 是一个可以 本地部署、私有化运行 的开源项目。这意味着你可以把它架设在自己的服务器上,甚至是在本地电脑上,用它来辅助你完成各种写作任务,而你的所有数据、所有的写作内容,都完全掌握在自己手里。
powerelectricdog6 小时前
大语言模型·ai写作·文本生成
Ollama部署Qwen2.5-32B:超简单AI写作工具搭建如果你经常需要写文章、做文案、或者处理各种文字工作,一定会遇到这样的困扰:思路卡壳、词不达意、或者效率太低。现在有了Qwen2.5-32B这样的AI大模型,这些问题都能得到很好的解决。
deephub2 天前
人工智能·深度学习·自动化·大语言模型·playwright
用 Playwright 和 LLM 实现自愈测试自动化Playwright 是一个用于 Web 自动化和端到端测试的开源框架。如果我们将他和LLM结合,就可以实现“自愈”的自动化测试,这样如果UI有了改动框架不再硬性失败而是在检测到失败之后分析当前的 DOM(Document Object Model),基于规则的策略自动恢复出一个能用的 locator。 自愈遵循一条严格的三阶段 pipeline。
荔枝学Python2 天前
人工智能·程序员·大模型·大语言模型·agent·ai大模型·智能体
Agent设计最强书籍:它真的把Agent讲解的非常透彻!!由Antonio Gulli撰写,本书是一本全面的技术指南,系统介绍了现代人工智能系统中智能体(Agent)设计的核心概念与实用方法。
deephub3 天前
人工智能·深度学习·大语言模型·ai-agent·mcp
为什么 MCP 在协议层会有 prompt injection的问题:工具描述如何劫持 agent 上下文MCP(Model Context Protocol)当初被设计成 AI agent 的通用集成层,但它的架构有一个根本缺陷:
deephub4 天前
人工智能·大语言模型·向量检索·rag·bm25
BM25 + Vectors:为什么真实 RAG 系统通常两者都需要RAG 是一个先选内容再做生成的系统;retriever 不搜索文档,它搜索 chunks。 chunks 有问题了那么检索还没开始就已经完蛋了,所以我们可以用结构感知切分修这一点,把标题、代码块、警告框保持在一起。
墨心@8 天前
语言模型·大语言模型·agent
赋予智能体技能,让其胜任现实世界任务“技能”是一个包含 SKILL.md 文件的目录,该目录下还包含结构化的指令、脚本和资源文件夹,用于赋予智能体额外的能力。
Cc不爱吃洋葱8 天前
人工智能·elasticsearch·大模型·大语言模型·rag·ai工具·大模型应用
RAG最佳实践:用 ElasticSearch 打造AI搜索系统与RAG 应用全流程详解!今天这篇文章将介绍如何使用 Elasticsearch 搭建AI搜索系统和RAG应用系统。Elasticsearch 搭建 AI 搜索系统
不爱说话的我9 天前
大语言模型·推理优化·gpu部署
SGLang吞吐量提升50%?GPU算力适配优化实战分析你有没有遇到过这种情况?好不容易把一个几十亿参数的大模型部署上线,结果发现并发一高,响应就慢得像蜗牛,GPU算力明明没用满,但吞吐量就是上不去。更头疼的是,很多业务场景不只是简单的问答,比如多轮对话、任务规划、生成结构化数据,这些复杂逻辑写起来麻烦,跑起来效率还低。
大数据无毛兽10 天前
大语言模型·通义千问·文本分析·qwen3
通义千问3-14B镜像使用指南:Ollama WebUI集成实操手册你是不是也遇到过这些情况:想用大模型做长文档分析,但Qwen2-72B显存爆了;想部署推理服务,却发现Llama3-70B连双卡都吃不消;想商用又卡在许可证上,MIT和Apache协议反复对比到头秃……别折腾了,Qwen3-14B就是为你准备的“守门员”——不是参数堆出来的纸面王者,而是真正在RTX 4090单卡上稳稳跑满、128k上下文一次加载、双模式自由切换的实干派。
xiezhr11 天前
ai·大语言模型·token·上下文·幻觉·提示词工程
别被AI吓到!一文看懂AI到底是什么?这两年,不管你刷朋友圈、刷视频、看新闻还是逛B站,"AI"两个字无处不在。ChatGPT能写文章,Midjourney能画画,Sora能做视频,Claude Code、OpenCode可以写代码,还有各种AI能做PPT、陪孩子练英语……
小曾不摆烂12 天前
人工智能·自然语言处理·大语言模型·agent
Agent经典论文——ReAct框架目录1、论文概述1.1 研究背景1.2 现有方法局限1.3 核心贡献1.4 摘要2、ReAct方法2.1 智能体与环境交互的一般设置
山科智能信息处理实验室13 天前
大语言模型·交通流量预测·自适应超图
(KDD-2025)STH-SepNet:轻量化大模型与自适应超图融合方法主要内容:这篇论文提出了时空预测框架 STH-SepNet ,通过将时间建模与空间建模解耦,分别使用轻量化大语言模型捕捉时间趋势,并利用自适应超图建模动态空间依赖和高阶节点关系。实验表明,该方法在多个真实交通与城市出行数据集上取得了较优预测效果,同时保持较高计算效率。总体来看,论文证明了在时空预测任务中,合理的结构分工比单纯扩大模型规模更具实际价值。
deephub14 天前
人工智能·大语言模型·agent·langgraph
2026年的 ReAct Agent架构解析:原生 Tool Calling 与 LangGraph 状态机ReAct(Reason + Act)架构要解决的问题是开放式研究里最经典的问题。本文要做的是一个 Research Brief Agent:会上网搜索、抓取真实 URL、压缩证据,最终产出一份带真实引用的结构化简报。重点不在于功能,而在于 正确写法——不再依赖那种脆弱的 “Thought: / Action:” 字符串解析。
deephub15 天前
人工智能·langchain·大语言模型·langgraph
LangChain 还是 LangGraph?一个是编排一个是工具包现在介绍LangGraph 和 LangChain 的文章。每一篇的结论都差不多:简单流程用 LangChain,复杂的用 LangGraph。
youcans_15 天前
人工智能·大语言模型·技术报告·deepseek v4
【DeepSeek论文精读】18. DeepSeek-V4:迈入百万上下文的普惠智能]欢迎关注 【AIGC论文精读】原创作品 【DeepSeek论文精读】1. 从 DeepSeek LLM 到 DeepSeek R1 【DeepSeek论文精读】13. DeepSeek-Coder-V2: 突破闭源模型在代码智能领域的障碍 【DeepSeek论文精读】18. DeepSeek-V4:迈入百万上下文的普惠智能
神州数码云基地15 天前
人工智能·llm·ocr·大语言模型·deepseek
告别传统OCR瓶颈,DeepSeek-OCR如何重塑文档智能?在文档数字化与智能处理场景中,OCR技术至关重要。传统OCR在处理长文档与复杂版面时存在精度低、成本高的瓶颈。笔者在调研中发现DeepSeek-OCR推出“上下文光学压缩”范式,能高效编码长文本,被誉为AI的“JPEG时刻”。
deephub16 天前
人工智能·python·大语言模型·ai幻觉
LLM 幻觉的架构级修复:推理参数、RAG、受约束解码与生成后验证大型语言模型可以写代码、起草合同、总结论文,但它有一个致命缺陷:撒谎的时候极其自信。这就是我们所说的幻觉,它是一个跨层级的问题:推理参数、系统架构、生成策略、生成后验证、模型训练、持续评估,每一层都有份,所以不能把它当成单点问题来处理。
J_bean18 天前
人工智能·ai·llm·大语言模型·token
大语言模型 API Token 消耗深度剖析在调用大语言模型(LLM)API 时,Token 统计不仅是计费的唯一依据,更是评估模型推理深度、响应延迟及上下文窗口管理的关键指标。本文旨在通过源码解析,帮助开发者彻底理解 Token 的消耗逻辑。
BE东欲18 天前
大语言模型·ai模型部署·视觉推理
Llama-3.2V-11B-cot镜像部署一文详解:解决torch版本冲突与依赖兼容问题你是不是也遇到过这种情况?好不容易找到一个功能强大的AI模型镜像,比如这个支持图像理解和逐步推理的Llama-3.2V-11B-cot,结果一运行就报错,各种版本冲突、依赖问题让人头疼。