llm

ASS-ASH16 小时前
数据库·人工智能·python·llm·embedding·向量数据库·vlm
AI时代之向量数据库概览向量数据库作为AI时代的新型基础设施,正迅速成为处理非结构化数据的核心工具。随着大模型技术的普及,企业越来越依赖向量数据库实现语义检索、知识库增强(RAG)、智能推荐等应用。本文将全面解析主流向量数据库产品,包括其开发商背景、适用场景、优缺点分析及收费模式,帮助企业或开发者根据自身需求选择最合适的向量数据库解决方案。
带刺的坐椅17 小时前
java·ai·llm·agent·solon·mcp·claudecode·skills
用 10 行 Java8 代码,开发一个自己的 ClaudeCodeCLI?你信吗?最近 Anthropic 推出的 Claude Code 席卷了开发者圈子,其强大的终端交互和“自动驾驶”般的编程能力令人惊叹。那么,在 Java 生态中,我们能否快速构建一个同样强大且高度可控的应用?
aopstudio1 天前
人工智能·llm·agent·openclaw
OpenClaw 实测体验:Agent 框架现在到底能不能用?最近折腾了一段时间 OpenClaw,起因其实很简单:市面上关于 Agent 的演示视频看起来都很猛,但真正落到工程环境里,很多细节没人说清楚。我更关心的不是“它能不能做 Demo”,而是——
千桐科技2 天前
大模型·llm·知识图谱·知识库·rag·qknow·知识平台
qKnow 知识平台核心能力解析|第 03 期:结构化抽取能力全流程介绍在知识驱动应用越来越重要的今天,如何把分散、杂乱的数据,快速转化为“可用的知识”,成为很多企业和团队绕不开的问题。
CoderJia程序员甲2 天前
开源·大模型·llm·github·ai教程
GitHub 热榜项目 - 日榜(2026-02-04)生成于:2026-02-04共发现热门项目: 11 个榜单类型:日榜本期GitHub热榜凸显AI驱动的软件开发自动化正迈向纵深,热点高度集中于智能体(Agent)技术的实战化与工程化。项目如claude-mem和ChatDev展示了AI如何通过记忆上下文和多智能体协作来重塑开发流程,而superpowers和ccpm则致力于构建可靠的任务编排与管理框架。同时,低成本的nanochat和专注于金融研究的dexter标志着AI应用正朝着垂直化与成本可控方向发展。整体趋势表明,开发者正积极构建能解决实际工程问题
gr17852 天前
python·llm·aigc·dify
通过dify文件上传能力,解决较大文本与LLM实时交互问题背景:在调用大语言模型时,除了安全问题另外一个让用户很头疼的问题就是实时大文本交互,如果你的问题内容很多,经常遇到LLM返回内容很简单,甚至内容被截断的问题,因为达到了最大token数限制。注意这提到的是实时交互,如果不是实时交互,通过RAG技术也可以解决很多大文本交互问题。在一些官网,比如deepseek,如下图:
EdisonZhou2 天前
llm·agent·.net core
MAF快速入门(14)快速集成A2A Agent大家好,我是Edison。最近我一直在跟着圣杰的《.NET+AI智能体开发进阶》课程学习MAF开发多智能体工作流,我强烈推荐你也上车跟我一起出发!
gentle coder3 天前
langchain·llm·rag
【langchain】AI应用开发框架LangChain 由 Harrison Chase 创建于2022年10月,它是围绕LLMs(大语言模型)建立的一个框架。
doll ~CJ3 天前
langchain·llm·提示词工程·ai应用
Large Language Model(LLM)应用开发学习实践(三)Write clear and specific instructions(clear ≠ short)
Rolei_zl3 天前
llm·aigc
(AI生成) openClaw 的前世今生AI Agent(人工智能智能体) 是技术概念 / 底层框架,是具备 “感知 - 规划 - 执行 - 反馈” 闭环能力的智能体技术体系; AI 代理工具 是AI Agent 技术的产品化落地,是面向普通用户 / 开发者、可直接部署使用的工具 / 应用,也是你之前关注的 OpenClaw、AutoGPT 这类产品的统称。 简单说:AI 代理工具 ≈ 产品化的 AI Agent,前者是后者的实际应用形态,后者是前者的技术核心。
人工智能培训3 天前
语言模型·llm·数据采集·模型量化·多模态学习·具身智能·环境感知
具身智能如何在保证安全的前提下高效探索学习?具身智能的核心的是通过物理实体与环境的交互获取认知、优化行为,其探索学习本质是“试错—反馈—迭代”的循环。但物理交互的不可逆性(如机器人碰撞损坏、误触危险设备),使得“安全”与“高效”成为核心矛盾——过度强调安全会导致探索保守、学习低效,盲目追求高效则可能引发安全事故。结合当前技术研究成果,需从安全边界构建、学习范式优化、技术协同支撑三个层面系统设计,实现二者动态平衡,让具身智能既能“大胆探索”,也能“守住底线”。
Elwin Wong3 天前
人工智能·大模型·llm·ocr·deepseek
浅析DeepSeek-OCR v1&v2时隔几个月,DeepSeek 又发布了 DeepSeek-OCR-2,与 v1 一样极具创新,在端到到的文档解析 VLM 中达到了 SOTA 的效果,并且极其高效,最多只需要 1120 个视觉 token,在这样的高效的输入下能达到最好的效果,确实不容易。那么,本文就趁这个机会把 v1 和 v2 放一起简单聊聊两者的一些架构、创新点等等。
CoderJia程序员甲3 天前
git·ai·开源·llm·github
GitHub 热榜项目 - 日榜(2026-02-03)生成于:2026-02-03共发现热门项目: 12 个榜单类型:日榜本期GitHub热榜以AI编程和智能代理为核心趋势,多个高星项目聚焦于提升开发效率。如claude-mem和99项目通过AI自动记录编码会话并注入上下文,实现了开发过程的智能延续;Maestro和ChatDev则展示了多智能体协作在软件开发中的成熟应用。同时,RAG技术持续革新,PageIndex提出无需向量的推理检索方案,而nanochat和pi-mono进一步降低了本地部署大模型的门槛。此外,netbird为分布式团队提供安全的网络连
中杯可乐多加冰3 天前
人工智能·大模型·llm·大语言模型·rag·检索增强生成
RAG 深度实践系列(七):从“能用”到“好用”——RAG 系统优化与效果评估在 RAG 深度实践系列的前几篇文章中,我们已经完成了从理论架构到动手搭建,再到企业级平台部署的全过程。RAG(Retrieval-Augmented Generation,检索增强生成)技术,作为连接大语言模型(LLM)与企业私域知识的桥梁,无疑是当前 AI 领域最具潜力的应用范式之一。
山顶夕景4 天前
大模型·llm·训练数据
【LLM】大模型数据清洗&合成&增强方法【大模型数据工程进展】主要讲的故事是大模型增强型数据准备展开系统性综述,围绕数据清洗、数据集成、数据增强三大任务,分析从传统基于规则的方法向提示驱动、上下文感知、智能体为核心的范式转变。Can LLMs Clean Up Your Mess? A Survey of Application-Ready Data Preparation with LLMs,https://arxiv.org/pdf/2601.17058,
tiger1194 天前
人工智能·llm·fpga·大模型推理
FPGA 在大模型推理中的应用我在之前详细讲过FPGA在AI中的优势,如果我们要利用它的优势,去优化大模型推理过程,应该有哪些方案(只是理论推导)。下面简单罗列一下:
AndrewHZ4 天前
人工智能·深度学习·大模型·llm·推理加速·测试时缩放
【AI黑话日日新】什么是大模型的test-time scaling?摘要:大语言模型(LLM)的性能提升长期依赖“参数扩容、数据增量、训练加算”的训练时缩放(Training-Time Scaling)范式,但该路径面临成本指数级增长、边际收益递减的瓶颈。Test-Time Scaling(TTS,测试时缩放/推理时扩展)作为全新技术范式,无需重新训练模型、不修改权重,仅在推理阶段通过投入额外计算资源、优化推理策略或引入外部验证,即可实现模型输出精度、鲁棒性与推理能力的显著提升。本文从核心定义、本质原理、主流算法分类、数学推导、工程代码实现、性能应用、挑战与未来方向,全面
GPUStack4 天前
大模型·llm·vllm·模型推理·sglang·高性能推理
vLLM、SGLang 融资背后,AI 推理正在走向系统化与治理最近,推理引擎领域出现了两件具有标志意义的事件:vLLM 和 SGLang 相继走向公司化。vLLM 核心团队成立 Inferact,完成 1.5 亿美元融资,估值达 8 亿美元:
Tadas-Gao4 天前
人工智能·深度学习·机器学习·架构·大模型·llm
大模型幻觉治理新范式:SCA与[PAUSE]注入技术的深度解析与创新设计自以GPT系列为代表的大语言模型(LLMs)崛起以来,其展现的非凡语言生成与理解能力已深刻重塑了人机交互的范式。然而,一个幽灵始终徘徊在AI世界的上空——幻觉(Hallucination)。它特指模型生成的内容在语法上流畅连贯,逻辑上看似严谨,实则与输入源信息(忠实性)或客观事实(事实性)严重不符的现象。正如Gartner在2024年报告中所警示,幻觉与模型滥用已成为生成式AI的两大核心风险。在医疗诊断、法律咨询、金融分析等高风险场景中,一个微小的幻觉便可能引发决策误导、信任崩塌乃至严重的社会伦理危机。例
猿小羽4 天前
java·llm·spring ai·mcp·streamable http
基于 Spring AI 与 Streamable HTTP 构建 MCP Server 实践面向专家读者的实战文章,目标是把“模型驱动工具调用(MCP)”从协议、架构到工程落地完整走通。本文强调可扩展、可观测与生产级交付。