embedding

明明跟你说过21 小时前
人工智能·语言模型·自然语言处理·embedding·rag
深入 RAG(检索增强生成)系统架构:如何构建一个能查资料的大语言模型系统🐇明明跟你说过:个人主页🏅个人专栏:《深度探秘:AI界的007》 🏅🔖行路有良友,便是天堂🔖
1296004523 天前
深度学习·自然语言处理·word·embedding
Unsupervised Learning-Word Embedding传统的1 of N 的encoding无法让意义相近的词汇产生联系,word class可以将相近的词汇放到一起
沛沛老爹12 天前
embedding·deeplearning4j·预测模型·空间数据·时序数据·外部特征
基于Deeplearning4j的多源数据融合预测模型实现:从设计到落地全解析在工业 4.0 与数字化转型的浪潮中,单一数据源的预测模型已难以应对复杂业务场景。多源数据融合通过整合结构化数据(如时序销量)、半结构化数据(如日志)、非结构化数据(如文本 / 图像),能够捕捉更全面的特征关联。本文以电商销量预测为场景,详解基于 Deeplearning4j(DL4J)的多源数据融合模型设计与工程实现。
在未来等你12 天前
java·微服务·ai·kubernetes·大模型·embedding·spring ai
互联网大厂Java求职面试:AI与大模型应用集成及云原生挑战郑薪苦是一位具有搞笑风格但技术潜力巨大的程序员,正在接受一位严肃专业的技术总监面试。面试官:在我们公司的短视频平台中,需要处理千万级用户同时在线观看直播的需求。请谈谈你在设计这样的直播系统架构时会考虑哪些关键点?
Christo316 天前
人工智能·深度学习·算法·机器学习·数据挖掘·embedding·聚类
关于在深度聚类中Representation Collapse现象推荐深蓝学院的《深度神经网络加速:cuDNN 与 TensorRT》,课程面向就业,细致讲解CUDA运算的理论支撑与实践,学完可以系统化掌握CUDA基础编程知识以及TensorRT实战,并且能够利用GPU开发高性能、高并发的软件系统,感兴趣可以直接看看链接:深蓝学院《深度神经网络加速:cuDNN 与 TensorRT》
SHIPKING39317 天前
embedding·faiss·向量数据库·阿里百炼
【嵌入模型与向量数据库】目录一、什么是向量?二、为什么需要向量数据库?三、向量数据库的特点四、常见的向量数据库产品FAISS 支持的索引类型 vs 相似度
工头阿乐18 天前
人工智能·pytorch·embedding
PyTorch中的nn.Embedding应用详解在深度学习中,词嵌入(Word Embedding)是一种常见的技术,用于将离散的词汇或符号映射到连续的向量空间。这种映射使得相似的词汇在向量空间中具有相似的向量表示,从而可以捕捉词汇之间的语义关系。在PyTorch中,nn.Embedding模块提供了一种简单而高效的方式来实现词嵌入。
浪淘沙jkp18 天前
人工智能·llm·embedding·agent·知识库·dify·deepseek
AI大模型学习二十、利用Dify+deepseekR1 使用知识库搭建初中英语学习智能客服机器人很多情况下 LLM 知识库可以让 Agent 从中定位到准确的信息,从而准确地回答问题。在一些特定领域,比如客服、检索工具等有应用。
明明跟你说过19 天前
人工智能·语言模型·embedding
深入理解Embedding Models(嵌入模型):从原理到实战(下)🐇明明跟你说过:个人主页🏅个人专栏:《深度探秘:AI界的007》 🏅🔖行路有良友,便是天堂🔖
yibuapi_com21 天前
chatgpt·架构·langchain·embedding·claude·向量数据库·中转api
Embedding 的数学特性与可视化解析取词向量维度 d = 50 d=50 d=50 的 GloVe 嵌入示例:资料推荐采用分段颜色映射策略:
仙人掌_lz22 天前
人工智能·ai·自然语言处理·embedding·强化学习·rl·bge
为特定领域微调嵌入模型:打造专属的自然语言处理利器“学习不是装满一桶水,而是点燃一把火。” —— 叶芝我的博客主页: https://lizheng.blog.csdn.net
背太阳的牧羊人1 个月前
人工智能·bert·embedding
OpenAI Embedding 和密集检索(如 BERT/DPR)进行语义相似度搜索有什么区别和联系OpenAI Embedding 和密集检索(如 BERT/DPR)其实是“同一种思想的不同实现”,它们都属于Dense Retrieval(密集向量检索),只不过使用的模型、部署方式和调用方式不同。
ai大模型木子1 个月前
人工智能·自然语言处理·bert·embedding·word2vec·ai大模型·大模型资料
嵌入模型(Embedding Models)原理详解:从Word2Vec到BERT的技术演进嵌入模型(Embedding Models) 是一种将高维离散数据(如文本、图像)转换为低维连续向量表示的技术。这些向量能够反映数据的语义关系,使得“语义相近的实体在向量空间中距离更近”。例如:
老马啸西风2 个月前
数据库·算法·云原生·中间件·embedding·neo4j
Neo4j GDS-13-neo4j GDS 库中节点插入算法实现Neo4j APOC-01-图数据库 apoc 插件介绍Neo4j GDS-01-graph-data-science 图数据科学插件库概览
SQLplusDB2 个月前
数据库·oracle·embedding
Oracle 23ai Vector Search 系列之3 集成嵌入生成模型(Embedding Model)到数据库示例,以及常见错误Windows 环境图形化安装 Oracle 23ai Oracle 23ai Vector Search 系列之1 架构基础 Oracle 23ai Vector Search 系列之2 ONNX(Open Neural Network Exchange)
墨绿色的摆渡人2 个月前
人工智能·pytorch·python·深度学习·语言模型·embedding
用 pytorch 从零开始创建大语言模型(六):对分类进行微调本章内容包括:到目前为止,我们已经编写了LLM架构,对其进行了预训练,并学习了如何将来自外部来源(如OpenAI)的预训练权重导入我们的模型中。现在我们将开始收获劳动成果,通过在特定目标任务上对LLM进行微调,例如文本分类。本章中我们要研究的具体示例是将短信分类为“垃圾信息”或“非垃圾信息”。图6.1强调了对LLM进行微调的两种主要方式:用于分类的微调(步骤8)和用于指令跟随的微调(步骤9)。
花千树-0102 个月前
gpt·架构·prompt·aigc·embedding·llama·agi
Dify - 架构、部署、扩展与二次开发指南本文详细解析 Dify 的架构、部署流程、高可用中间件的独立部署方法,以及二次开发流程,帮助开发者更高效地管理和扩展 Dify。
花千树-0102 个月前
python·机器学习·langchain·pdf·prompt·aigc·embedding
LangChain教程 - Agent -之 REACT_DOCSTORE在智能问答和知识检索的场景下,如何让 AI 既具备推理能力,又能高效利用外部知识库?ReAct 框架已经展现了强大的推理能力,而 ReACT_DOCSTORE 则进一步增强了这一能力,结合了文档存储(DocStore),让 AI 先检索文档,再进行推理,从而提供更加准确的信息。
Sirius Wu3 个月前
容器·kubernetes·embedding
三级缓存架构三级缓存架构是一种通过分层缓存设计来优化系统性能、降低数据库负载、提高数据访问效率的解决方案,尤其适用于高并发、高吞吐量的业务场景(如电商、社交平台、实时推荐等)。其核心思想是通过多级缓存逐层过滤请求,减少对底层存储的直接访问。以下是三级缓存的详细解析:
花千树-0103 个月前
人工智能·机器学习·chatgpt·prompt·aigc·embedding
微调训练方法概述:Fine-tuning、Prompt-tuning、P-tuning 及其他高效技术在深度学习和自然语言处理(NLP)领域,预训练模型(如 GPT、BERT 等)已经成为许多任务的基石。然而,尽管这些模型在预训练阶段学习了大量的通用知识,它们通常仍然需要根据特定任务进行微调,以实现最佳的任务性能。微调训练(fine-tuning)就是一种基于预训练模型,在特定任务数据上进一步训练的策略。