ai

张張40819 分钟前
c语言·开发语言·python·ai
(域格)环境搭建和编译这个 SDK 的编译强依赖 4 个核心工具,任意一个缺失 / 没添加到系统 PATH,都会导致脚本执行直接报错退出:
乐鑫科技 Espressif1 小时前
人工智能·ai·esp32·乐鑫科技
使用 MCP 服务器,把乐鑫文档接入 AI 工作流模型上下文协议 (MCP) 是一项让 AI Agent 连接外部数据源、工具和工作流的开放标准。有了 MCP,AI Agent 不再靠训练数据或搜索结果"猜答案",而是直接从真实、最新的上下文中获取信息并采取行动。 乐鑫文档 MCP 服务器将这一标准引入乐鑫官方文档体系。在 Cursor、VS Code、Claude Code 或其他支持 MCP 的编辑器中完成安装 MCP 服务器后,AI Agent 可以直接查询乐鑫官方文档。这意味着:
语戚1 小时前
人工智能·ai·stable diffusion·aigc·模型
Stable Diffusion 入门:架构、空间与生成流程概览在人工智能绘画的技术版图中,Stable Diffusion(SD)凭借其开源、高效与高可控性,成为了当之无愧的基础设施。如果不深入底层代码,仅从系统架构层面看,Stable Diffusion 的本质是一个跨空间的生成映射系统。
俊哥V1 小时前
人工智能·ai
每日 AI 研究简报 · 2026-04-08(本文借助 AI 大模型及工具辅助整理)一句话总结:今日亮点聚焦多智能体研究框架、测试时训练新方法、视觉语言模型幻觉检测,以及英伟达企业级 AI Agent 平台的重磅发布,AI 基础设施与应用落地的竞争持续升温。
rrrjqy1 小时前
ai
什么是RAG?为了解决这两个痛点,**RAG(Retrieval-Augmented Generation,检索增强生成)**技术应运而生。今天这篇文章,我们就来白话解析一下,到底什么是 RAG?
Flittly2 小时前
java·笔记·spring·ai·springboot
【SpringAIAlibaba新手村系列】(15)MCP Client 调用本地服务版本标注章节定位s01 > s02 > s03 > s04 > s05 > s06 > s07 > s08 > s09 > s10 > s11 > s12 > s13 > s14 > [ s15 ] s16 > s17 > s18
Flittly2 小时前
java·spring boot·笔记·spring·ai
【SpringAIAlibaba新手村系列】(14)MCP 本地服务与工具集成版本标注章节定位s01 > s02 > s03 > s04 > s05 > s06 > s07 > s08 > s09 > s10 > s11 > s12 > s13 > [ s14 ] s15 > s16 > s17 > s18
Flittly3 小时前
java·spring boot·spring·ai
【SpringAIAlibaba新手村系列】(13)Tool Calling 函数工具调用技术版本标注章节定位s01 > s02 > s03 > s04 > s05 > s06 > s07 > s08 > s09 > s10 > s11 > s12 > [ s13 ] s14 > s15 > s16 > s17 > s18
花千树-0103 小时前
人工智能·深度学习·ai·语音识别·tts
IndexTTS2 推理性能分析IndexTTS2 是典型的自回归模型(逐 token 生成),对 GPU 性能特别敏感。➡️ 使用显卡能提升 8 倍 ~ 80 倍 (取决于 GPU 型号、批量、FP16 支持等)
FPGA-ADDA3 小时前
ai·fpga·rfsoc·vu13p·xczu47dr
第四篇:射频数据转换器(RF-DAC)——重构模拟信号的关键在直接射频采样发射机中,RF-DAC是整个发射链路的最后一级数字处理单元。它负责将FPGA处理好的数字IQ数据转换为模拟射频信号,经放大、滤波后由天线辐射出去。RF-DAC的性能直接决定了发射信号的频谱纯度、邻道泄漏比(ACLR)和误差矢量幅度(EVM)。
coder阿龙3 小时前
java·数据库·spring boot·ai·数据库开发
基于SpringAI+Qdrant+Ollama本地模型和向量数据库开发问答和RAG检索然后安装如下三个模型第一个是检索用的,后面两个对话用,根据自己需要安装别的也行 对话需要带有(tool),检索需要带有(embedding)
科技峰行者4 小时前
人工智能·ai·存储·闪存·闪迪
闪存创新赋能全域,闪迪构建AI存储全栈版图当前,存储行业正经历一场由人工智能全面驱动的范式转移。当大模型训练吞噬TB级显存、推理服务占据海量带宽、端侧AI实时处理成为标配,存储不再是算力的附属,而是决定AI效率、成本与规模化落地的核心底座。
Elastic 中国社区官方博客4 小时前
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索·jina
Elasticsearch:运用 JINA 来实现多模态搜索的 RAGJina Embeddings v4 是一个 38 亿参数的通用向量模型,用于多模态多语言检索,支持单向量和多向量输出。那么我们该如何使用它对图片及文字进行搜索,并最终对搜索的结果做 RAG。
木斯佳4 小时前
前端·ai·鉴权·monorepo
前端八股文面经大全:腾讯前端一面(2026-04-04)·深度解析大家好,我是木斯佳。相信很多人都感受到了,在AI浪潮的席卷之下,前端领域的门槛在变高,纯粹的“增删改查”岗位正在肉眼可见地减少。曾经热闹非凡的面经分享,如今也沉寂了许多。但我们都知道,市场的潮水退去,留下的才是真正在踏实准备、努力沉淀的人。学习的需求,从未消失,只是变得更加务实和深入。
UltraLAB-F4 小时前
图像处理·算法·3d·ai·硬件架构
GPU显存不足时的分配策略:渲染与仿真的显存争夺战解决方案摘要产品设计师与仿真工程师共用一台工作站时,常遇到KeyShot渲染与Abaqus/ANSYS仿真争抢GPU显存,导致双双卡死或“Out of Memory”错误。本文深入分析渲染与仿真各自的显存消耗特征,提出分时、分区、分级三种分配策略,并结合UltraLAB硬件方案给出具体配置与实操指南,帮助用户在多任务场景下合理分配显存资源。
knqiufan5 小时前
ai·agent·claude code
拆解 Claude Code SubAgent:隔离、专业化与权限设计从"这东西有什么用"聊到"它底下是怎么跑的",一篇讲完。入门篇实践篇源码篇附录想象你是一个项目经理(主 Agent),手下有几个专员(SubAgent)。你不会自己去翻 200 个文件找答案——你会把任务交给调研专员,让他去翻,他翻完了最终再把结论汇报给你。
Old Uncle Tom5 小时前
人工智能·ai·agent
Claude Code 上下文压缩分析大模型对话系统面临的核心挑战在于有限的上下文窗口与无限增长对话历史之间的矛盾。上下文压缩的重要性体现在三个层面:一是成本控制,每次API调用都按token计费,过长的上下文会急剧增加推理成本;二是响应延迟,窗口满载时模型处理速度下降,影响用户体验;三是信息保真,若不压缩,早期关键指令、技术决策或用户偏好会在滚动中被截断遗忘,导致模型“迷失在中间”。
qq_427506085 小时前
ide·vscode·ai
vscode使用claude code的简单经验分享(一)安装CLI其他安装CLI方式https://github.com/anthropics/claude-code#
兰.lan5 小时前
软件测试·人工智能·笔记·python·功能测试·ai·单元测试
【黑马ai测试】黑马头条登录功能测试-发布功能测试-其他功能模块设计温馨提示结尾有完整的测试点,可以拿着来对照每个业务点和功能点分析需求说明:说明 点击[提交审核】,提示新增文章成功,跳转到内容列表,文章状态显示待审核 点击【存入草稿】,提示保存文章成功
G31135422735 小时前
大数据·人工智能·ai·云计算
零门槛实现 TRTC 音视频流转推各大直播 CDN最近做项目遇到一个刚需:用 TRTC 做了实时连麦互动,但大量普通观众没法装专门的客户端,只能用 H5 或者常规直播播放器看。翻了一圈文档踩了不少坑,终于把 TRTC 房间里的音视频流无缝转推到直播 CDN 上了,今天把完整流程和避坑指南整理出来,给有同样需求的朋友参考。 一、先搞懂:为什么要做转推? TRTC 本身是为低延迟实时互动设计的,用的是私有 UDP 协议,延迟能做到 100ms 以内,但缺点是只能用 TRTC SDK 播放。而直播 CDN 用的是 RTMP/HLS/FLV 这些标准协议,几乎所