llm

千桐科技2 小时前
人工智能·大模型·llm·知识图谱·大模型幻觉·qknow·行业深度ai应用
大模型幻觉难解?2026深度解析:知识图谱如何成为LLM落地的“刚需”与高薪新赛道导读:在大模型(LLM)席卷全球的今天,很多开发者都在问:“知识图谱(KG)还有前景吗?”、“现在入局会不会是49年入国军?”。本文带你穿透迷雾,看清知识图谱从“低迷”到“复兴”的真相,并揭秘未来5年最稀缺的复合型岗位。
测试者家园4 小时前
软件测试·自动化·llm·需求分析·持续测试·智能化测试·功能点
从需求文档到测试点:利用大模型实现需求理解的自动化软件测试行业有一个公认的经验:测试工作中最难的部分,不是执行,而是理解。一份需求文档发下来,资深测试工程师与初级工程师的差距,不体现在谁能更快地点完用例,而体现在谁能从一段业务描述里,准确识别出那个隐藏在字里行间的边界条件,那个“产品没说但一定不能错”的逻辑前提。
BGoodHabit5 小时前
ai·llm·agi·自媒体·nano banana pro
从工程思维到产品思维:我用 AI 搭建内容生产系统的实战复盘一开始接触 AI,其实没有想太多,动机很简单:在做内容和一些小产品的过程中,我很快就感受到一个很直观的变化:
黄粱梦醒7 小时前
人工智能·llm
OpenClaw-window安装教程以及通用常用命令OpenClaw在linux/macOS安装都很简单不过多进行赘述。Windows官方推荐的安装方式是在windows上安装一个linux的子系统,该子系统类似于vmware的linux虚拟机,但是是windows自带的支持安装子系统的功能
snow_yan7 小时前
前端·react.js·llm
基于 json-render 的流式表单渲染方案目前需要将借款等功能接入AI平台里,我们需要通过多轮问答的形式来搜集用户的意愿及具体信息。目前项目里并不支持表单渲染,用户只能在聊天框里一行行地打字回复。这种体验既低效,又容易导致数据格式混乱,难以进行结构化存储和后续业务流转。
knqiufan17 小时前
ai·llm·agent·pingcode
PingCraft:从需求文档到可追踪工作项的 Agent 实践之路来自博主的开源项目:PingCraft(Apache-2.0)最近开源了一个项目 PingCraft(GitHub 地址:https://github.com/knqiufan/PingCraft):一个基于 AI 的需求智能分析与导入工具。 简单说下它的作用:上传需求文档(Word / Markdown / TXT),用大模型解析成结构化工作项,与 PingCode 已同步的数据做对齐和查重,然后一键批量导入。
twc82920 小时前
大模型·llm
大模型基础概念(简要版)AI 的演进路径是:机器学习(ML)→ 深度学习(DL)→ 大语言模型(LLM)。深度学习包含两类模型:
chaors1 天前
langchain·llm·ai编程
从零学RAG0x0f:RAG 评估指标提升实战前面学习了 什么是 RAG 评估 以及相关指标。在相关 Demo 中也看到有些指标比较低,那么实际开发中该怎么去提升这些指标呢?
前端付豪1 天前
前端·后端·llm
Memory V1:让 AI 记住你的关键信息目标🎯:项目就从“多会话聊天”升级成了“有记忆的 AI”。放在 loading 下面:放在 formatTime 下面:
twc8291 天前
人工智能·大模型·llm·提示词工程
写好提示词在大模型时代,测试开发工程师想要利用大模型技术,主要有四种方案:训练模型、微调模型、RAG和提示词工程。作者用吴恩达老师训练小狗的例子来解释这四种方案的区别,非常形象。
Sakuraba Ema1 天前
python·llm·attention
Attention Residuals:把固定残差换成“跨层注意力”这篇博客讲解论文 Attention Residuals,重点回答四个问题:在现代 Transformer / LLM 中,PreNorm 残差连接是标准做法。 最经典的写法是:
前端付豪2 天前
前端·后端·llm
实现一个用户可以有多个会话目标:使用 localStorage 存储对话和结果不是单一聊天页了,而是:下一步就该做 后端持久化 + Memory 检索雏形。
superior tigre2 天前
人工智能·llm·hpc
LLM/HPC常见术语汇总
Sakuraba Ema2 天前
人工智能·pytorch·python·深度学习·数学·llm·latex
从零理解 MoE(Mixture of Experts)混合专家:原理、数学、稀疏性、专家数量影响与手写 PyTorch 实现这篇博客面向已经有一定 Transformer / FFN 基础的读者。 我们会从 MoE 的核心思想 出发,解释它为什么能在“大参数量”和“可控计算量”之间取得平衡;然后介绍它的数学形式、稀疏路由、负载均衡,以及 专家数量对预训练的影响;最后基于一份教学版 PyTorch 代码,逐模块拆解,并给出对应的小例子和完整代码。
arvin_xiaoting2 天前
学习·架构·llm·gateway·ai-agent·飞书机器人·openclaw
OpenClaw学习总结_I_核心架构系列_Gateway架构详解Gateway是OpenClaw的中央枢纽,就像邮局一样,所有消息都先送到这里,然后分配给对应的Agent处理。
arvin_xiaoting2 天前
java·学习·架构·llm·ai-agent·飞书机器人·openclaw
OpenClaw学习总结_I_核心架构系列_AgentLoop详解阶段:I. 核心架构 课序:第 2 课 前置知识:I-1. Gateway 架构 后续课程:I-3. Context 管理
huazi-J2 天前
llm·datawhale·openclaw·龙虾
Datawhale openclaw 课程 task2:clawX本地openclaw使用skillSkillHub,是腾讯一个专为中国用户优化的 AI Skills 社区 SkillHub:专为中国用户优化的Skills社区 安装 自媒体内容生成器skill:Content Writer (下图第三个)
啊阿狸不会拉杆2 天前
人工智能·ai·llm·aigc·agent·ml·dl
《现代人工智能基础》个人解读分享最近后台很多朋友私信我:“豆包,LLM、Agent到底是什么?为什么龙虾AI智能管理助理突然就火了?” 打开社交平台,全是“AI颠覆行业”“Agent替代人类工作”的论调,不少人盲目崇拜这些AI产品,却连最基础的概念都讲不清楚。
弗锐土豆2 天前
llm·大语言模型·安装·ollama
使用ollama运行本地大模型在研发一个AI与传统业务系统结合的产品,需要本地化LLM(大语言模型)环境。所以选择ollama来管理本地LLM,本次学会安装使用ollama。
华农DrLai2 天前
人工智能·算法·llm·nlp·prompt·llama
什么是自动Prompt优化?为什么需要算法来寻找最佳提示词?🚀 本文收录于Github:AI-From-Zero 项目 —— 一个从零开始系统学习 AI 的知识库。如果觉得有帮助,欢迎 ⭐ Star 支持!