技术栈
llm
千桐科技
2 小时前
人工智能
·
大模型
·
llm
·
知识图谱
·
大模型幻觉
·
qknow
·
行业深度ai应用
大模型幻觉难解?2026深度解析:知识图谱如何成为LLM落地的“刚需”与高薪新赛道
导读:在大模型(LLM)席卷全球的今天,很多开发者都在问:“知识图谱(KG)还有前景吗?”、“现在入局会不会是49年入国军?”。本文带你穿透迷雾,看清知识图谱从“低迷”到“复兴”的真相,并揭秘未来5年最稀缺的复合型岗位。
测试者家园
4 小时前
软件测试
·
自动化
·
llm
·
需求分析
·
持续测试
·
智能化测试
·
功能点
从需求文档到测试点:利用大模型实现需求理解的自动化
软件测试行业有一个公认的经验:测试工作中最难的部分,不是执行,而是理解。一份需求文档发下来,资深测试工程师与初级工程师的差距,不体现在谁能更快地点完用例,而体现在谁能从一段业务描述里,准确识别出那个隐藏在字里行间的边界条件,那个“产品没说但一定不能错”的逻辑前提。
BGoodHabit
5 小时前
ai
·
llm
·
agi
·
自媒体
·
nano banana pro
从工程思维到产品思维:我用 AI 搭建内容生产系统的实战复盘
一开始接触 AI,其实没有想太多,动机很简单:在做内容和一些小产品的过程中,我很快就感受到一个很直观的变化:
黄粱梦醒
7 小时前
人工智能
·
llm
OpenClaw-window安装教程以及通用常用命令
OpenClaw在linux/macOS安装都很简单不过多进行赘述。Windows官方推荐的安装方式是在windows上安装一个linux的子系统,该子系统类似于vmware的linux虚拟机,但是是windows自带的支持安装子系统的功能
snow_yan
7 小时前
前端
·
react.js
·
llm
基于 json-render 的流式表单渲染方案
目前需要将借款等功能接入AI平台里,我们需要通过多轮问答的形式来搜集用户的意愿及具体信息。目前项目里并不支持表单渲染,用户只能在聊天框里一行行地打字回复。这种体验既低效,又容易导致数据格式混乱,难以进行结构化存储和后续业务流转。
knqiufan
17 小时前
ai
·
llm
·
agent
·
pingcode
PingCraft:从需求文档到可追踪工作项的 Agent 实践之路
来自博主的开源项目:PingCraft(Apache-2.0)最近开源了一个项目 PingCraft(GitHub 地址:https://github.com/knqiufan/PingCraft):一个基于 AI 的需求智能分析与导入工具。 简单说下它的作用:上传需求文档(Word / Markdown / TXT),用大模型解析成结构化工作项,与 PingCode 已同步的数据做对齐和查重,然后一键批量导入。
twc829
20 小时前
大模型
·
llm
大模型基础概念(简要版)
AI 的演进路径是:机器学习(ML)→ 深度学习(DL)→ 大语言模型(LLM)。深度学习包含两类模型:
chaors
1 天前
langchain
·
llm
·
ai编程
从零学RAG0x0f:RAG 评估指标提升实战
前面学习了 什么是 RAG 评估 以及相关指标。在相关 Demo 中也看到有些指标比较低,那么实际开发中该怎么去提升这些指标呢?
前端付豪
1 天前
前端
·
后端
·
llm
Memory V1:让 AI 记住你的关键信息
目标🎯:项目就从“多会话聊天”升级成了“有记忆的 AI”。放在 loading 下面:放在 formatTime 下面:
twc829
1 天前
人工智能
·
大模型
·
llm
·
提示词工程
写好提示词
在大模型时代,测试开发工程师想要利用大模型技术,主要有四种方案:训练模型、微调模型、RAG和提示词工程。作者用吴恩达老师训练小狗的例子来解释这四种方案的区别,非常形象。
Sakuraba Ema
1 天前
python
·
llm
·
attention
Attention Residuals:把固定残差换成“跨层注意力”
这篇博客讲解论文 Attention Residuals,重点回答四个问题:在现代 Transformer / LLM 中,PreNorm 残差连接是标准做法。 最经典的写法是:
前端付豪
2 天前
前端
·
后端
·
llm
实现一个用户可以有多个会话
目标:使用 localStorage 存储对话和结果不是单一聊天页了,而是:下一步就该做 后端持久化 + Memory 检索雏形。
superior tigre
2 天前
人工智能
·
llm
·
hpc
LLM/HPC常见术语汇总
Sakuraba Ema
2 天前
人工智能
·
pytorch
·
python
·
深度学习
·
数学
·
llm
·
latex
从零理解 MoE(Mixture of Experts)混合专家:原理、数学、稀疏性、专家数量影响与手写 PyTorch 实现
这篇博客面向已经有一定 Transformer / FFN 基础的读者。 我们会从 MoE 的核心思想 出发,解释它为什么能在“大参数量”和“可控计算量”之间取得平衡;然后介绍它的数学形式、稀疏路由、负载均衡,以及 专家数量对预训练的影响;最后基于一份教学版 PyTorch 代码,逐模块拆解,并给出对应的小例子和完整代码。
arvin_xiaoting
2 天前
学习
·
架构
·
llm
·
gateway
·
ai-agent
·
飞书机器人
·
openclaw
OpenClaw学习总结_I_核心架构系列_Gateway架构详解
Gateway是OpenClaw的中央枢纽,就像邮局一样,所有消息都先送到这里,然后分配给对应的Agent处理。
arvin_xiaoting
2 天前
java
·
学习
·
架构
·
llm
·
ai-agent
·
飞书机器人
·
openclaw
OpenClaw学习总结_I_核心架构系列_AgentLoop详解
阶段:I. 核心架构 课序:第 2 课 前置知识:I-1. Gateway 架构 后续课程:I-3. Context 管理
huazi-J
2 天前
llm
·
datawhale
·
openclaw
·
龙虾
Datawhale openclaw 课程 task2:clawX本地openclaw使用skill
SkillHub,是腾讯一个专为中国用户优化的 AI Skills 社区 SkillHub:专为中国用户优化的Skills社区 安装 自媒体内容生成器skill:Content Writer (下图第三个)
啊阿狸不会拉杆
2 天前
人工智能
·
ai
·
llm
·
aigc
·
agent
·
ml
·
dl
《现代人工智能基础》个人解读分享
最近后台很多朋友私信我:“豆包,LLM、Agent到底是什么?为什么龙虾AI智能管理助理突然就火了?” 打开社交平台,全是“AI颠覆行业”“Agent替代人类工作”的论调,不少人盲目崇拜这些AI产品,却连最基础的概念都讲不清楚。
弗锐土豆
2 天前
llm
·
大语言模型
·
安装
·
ollama
使用ollama运行本地大模型
在研发一个AI与传统业务系统结合的产品,需要本地化LLM(大语言模型)环境。所以选择ollama来管理本地LLM,本次学会安装使用ollama。
华农DrLai
2 天前
人工智能
·
算法
·
llm
·
nlp
·
prompt
·
llama
什么是自动Prompt优化?为什么需要算法来寻找最佳提示词?
🚀 本文收录于Github:AI-From-Zero 项目 —— 一个从零开始系统学习 AI 的知识库。如果觉得有帮助,欢迎 ⭐ Star 支持!