ai

我认不到你31 分钟前
人工智能·深度学习·ai·语言模型
使用Ollama运行本地模型,模型参数选择(保姆级图文讲解)Ollama官网:OllamaOllama 是一个开源工具,让你能在本地电脑上轻松运行大型语言模型(如 Llama 3、DeepSeek、Qwen 等)。它简化了 AI 模型的部署和使用过程,无需依赖云端服务。
佛系菜狗2 小时前
ai
RAG 工作机制详解——检索增强生成技术全流程RAG 全称为 Retrieval Augmented Generation,翻译为检索增强生成。其核心工作原理包含两个步骤:
wang_yb2 小时前
ai·databook
从直觉到算法:贝叶斯思维的技术底层与工程实现当你的朋友推荐餐厅时,你已经在进行贝叶斯推理——只是你没意识到而已在医学教育中有一个经典案例:当医生们面对乳腺癌筛查问题时,82%的人给出了错误答案。
智算菩萨3 小时前
人工智能·深度学习·ai·chatgpt·ai编程
ChatGPT 5.4 API深度解析:从Transformer架构到企业级应用实践本文系统性地探讨了OpenAI ChatGPT 5.4 API的技术架构、核心原理与工程实践。文章从Transformer架构的注意力机制出发,深入分析了GPT-4/GPT-5系列模型的演进路径,详细阐述了基于人类反馈的强化学习(RLHF)对齐技术,并全面介绍了OpenAI API的调用机制、嵌入模型、函数调用等核心功能。通过理论分析与代码示例相结合的方式,本文旨在为开发者提供一份全面、深入的技术参考,帮助读者理解大语言模型背后的技术原理,并掌握企业级API应用的最佳实践。
星辰引路-Lefan3 小时前
linux·windows·docker·ai·ai编程
全平台 Docker 部署 CPA(CLIProxyAPI Plus) 灵活定制指南 (Linux/Windows)——接入Codex对于经常折腾 AI 工具的朋友来说,搭建一个专属的 API 中转代理(如 CLIProxyAPI Plus)是必不可少的技能。它可以帮你解决网络连通性问题、集中管理多个 OpenAI 账号。
熏鱼的小迷弟Liu3 小时前
ai·agent·智能体
【AI】如何设计Agent的记忆系统?记忆模块是Agent打破LLM上下文窗口限制、实现持续学习和个性化的关键。 设计Agent的记忆系统可以仿照人类的记忆机制。 分为短期记忆和长期记忆。
北漂的尘埃3 小时前
ai·agent·skills
初始SkillsAgent Skills 是一种扩展智能体能力的模块化指令集合。Skills = Instructions + Assets and resources + Scripts Skills是 丰富且标准的一个或者多个提示词、大模型参考的图片、文字等资产、一个或者多个可自动化执行的脚本 的可重复使用的标准化的集合。
KeepSeek4 小时前
ai
Dify平台开源大模型应用平台前言:什么是agent?自主行动高效处理复杂任务的智能助手,目前的大模型不够用大模型只能聊天,agent不仅能聊天,还能做能执行
实在智能RPA4 小时前
人工智能·ai·架构
2026年企业级实测:企业部署智能体要什么电脑配置?从硬件门槛到架构选型的深度拆解随着“人工智能+”行动在各行各业的深度渗透,企业级**智能体(AI Agent)**已从实验室走向大规模商用生产线。对于IT决策者而言,企业部署智能体要什么电脑配置? 这一问题已不再是简单的硬件参数堆砌,而是涉及算力成本、业务连续性与数据合规的系统性工程。本文将基于我近半年的深度实测,客观拆解当前主流的技术路线,并针对不同规模的企业给出最具参考价值的配置方案与选型评估。
智算菩萨4 小时前
人工智能·python·ai·chatgpt·ai编程
AI赋能游戏创作:基于ChatGPT 5.4的小游戏智能设计与开发全解析随着人工智能技术的飞速发展,大语言模型(Large Language Models, LLMs)正在深刻改变游戏设计与开发的传统范式。本文系统性地探讨了ChatGPT 5.4在小游戏设计中的应用,从技术原理、应用框架到实际案例进行了全面分析。文章首先阐述了Transformer架构与注意力机制的核心原理,随后深入探讨了程序化内容生成(Procedural Content Generation, PCG)与AI技术的融合路径,并详细分析了智能NPC对话系统、游戏代码自动生成等关键应用场景。通过理论分析与实践
深念Y4 小时前
数据库·ai·agent·文档·向量数据库·rag·知识检索
RAG系统的“记忆幽灵”,记忆更新怎么办我发现了一个问题,好像哪怕你用rag记忆增强系统、向量数据库+分层索引文档检索,好像你也无法解决一个问题,就是记忆更新问题,一件事以前做的时候的记忆,存到了数据库和文档的时候,他就是死的,现在如果这件事状态已经更新了,或者遇到了新的需求和问题,我们能不能全面的索引并更新以前的记忆呢,恐怕是不容易的,总有漏网之鱼,如果未来有一天不小心调出来漏网之鱼的记忆,不就导致一些错乱记忆混乱逻辑导致出问题吗 在使用ai agent coding助手的时候,我看到漫天的文档和经常性混乱的前后逻辑,和没更新的文档信息内容,
CoderJia程序员甲5 小时前
人工智能·ai·大模型·github·ai教程
GitHub 热榜项目 - 日榜(2026-03-17)生成于:2026-03-17共发现热门项目: 12 个榜单类型:日榜本期 GitHub 热榜聚焦于 AI Agent 基础设施的爆炸式增长。趋势显示,开发者正从单一模型调用转向复杂的智能体协作,重点围绕 Claude Code 生态进行二次开发,如 claudian 与 claude-mem 增强了开发上下文记忆。核心技术热点集中在“端侧智能”与“Agent 上下文管理”,GitNexus 实现浏览器内 Graph RAG,OpenViking 提出分层上下文数据库范式。此外,vite-plus 等 Ru
Keeling17205 小时前
笔记·学习·spring·ai
SpringAI学习笔记(三)会话记忆功能大模型本身是不具备记忆能力的,要想让大模型记住之前聊天的内容,唯一的办法就是把之前聊天的内容与最新的提问一起发给大模型。这里我们就要用到发给大模型的第三个参数 assistant 了。
佛系菜狗5 小时前
人工智能·ai
从 LLM 到 Agent Skill:AI 核心概念完整解析LLM(Large Language Model)即大语言模型,是当前所有 AI 技术的核心。目前主流的大模型都基于 Transformer 架构训练而成。
x-cmd5 小时前
人工智能·ai·github·agent·token·rtk·x-cmd
RTK - CLI 代理工具,减少 LLM 80% token 消耗 | X-CMD 推荐如果你想持续获取更多相关资讯,欢迎关注 x-cmd 博客。用 AI 辅助编程时,每次执行 git status、cargo test、npm run build,原始输出动辄几百上千 token。RTK 在你和终端之间加了一层"过滤器",把冗余的注释、空格、重复行去掉,压缩到原来的十分之一。一次 30 分钟的 Claude Code 会话,能省下约 8 万 token。
L-影5 小时前
人工智能·ai·embedding
下篇:从静态到动态,Embedding的进化之路上篇咱们聊了Embedding是什么,以及Word2Vec这个开山鼻祖是怎么工作的。说白了,就是把词变成坐标,让意思相近的词在空间里也靠得近。
良凯尔5 小时前
ai·openclaw
PicoClaw vs OpenClaw:“皮皮虾”遇上“小龙虾”,谁才是轻量级 AI 助手的最优解PicoClaw是由中国团队矽速科技(Sipeed)开源的一个超轻量级AI助手框架,旨在解决传统AI助手(如OpenClaw)在资源占用和部署成本方面存在的痛点。
bestadc5 小时前
ai·agent
Hello-Agents 第二章 智能体发展史 学习笔记一句话总结:智能体是从“按规则办事的木头人”,慢慢变成“能自学、能协作、能调用工具的灵活助手”。物理符号系统假说[1]是符号主义时代的理论基石。请分析:
牛老师讲GIS6 小时前
ai·webgis·codebuddy
CodeBuddy+WebGIS开发最佳实践WebGIS 开发从来都不是简单的页面拼凑。它不仅涉及传统前端的 UI/UX 和复杂的状态管理,更包含了晦涩的空间逻辑、沉重的地图引擎(如 OpenLayers, Mapbox, Cesium)调用,以及海量地理数据的处理。