技术栈
embedding
明明跟你说过
21 小时前
人工智能
·
语言模型
·
自然语言处理
·
embedding
·
rag
深入 RAG(检索增强生成)系统架构:如何构建一个能查资料的大语言模型系统
🐇明明跟你说过:个人主页🏅个人专栏:《深度探秘:AI界的007》 🏅🔖行路有良友,便是天堂🔖
129600452
3 天前
深度学习
·
自然语言处理
·
word
·
embedding
Unsupervised Learning-Word Embedding
传统的1 of N 的encoding无法让意义相近的词汇产生联系,word class可以将相近的词汇放到一起
沛沛老爹
12 天前
embedding
·
deeplearning4j
·
预测模型
·
空间数据
·
时序数据
·
外部特征
基于Deeplearning4j的多源数据融合预测模型实现:从设计到落地全解析
在工业 4.0 与数字化转型的浪潮中,单一数据源的预测模型已难以应对复杂业务场景。多源数据融合通过整合结构化数据(如时序销量)、半结构化数据(如日志)、非结构化数据(如文本 / 图像),能够捕捉更全面的特征关联。本文以电商销量预测为场景,详解基于 Deeplearning4j(DL4J)的多源数据融合模型设计与工程实现。
在未来等你
12 天前
java
·
微服务
·
ai
·
kubernetes
·
大模型
·
embedding
·
spring ai
互联网大厂Java求职面试:AI与大模型应用集成及云原生挑战
郑薪苦是一位具有搞笑风格但技术潜力巨大的程序员,正在接受一位严肃专业的技术总监面试。面试官:在我们公司的短视频平台中,需要处理千万级用户同时在线观看直播的需求。请谈谈你在设计这样的直播系统架构时会考虑哪些关键点?
Christo3
16 天前
人工智能
·
深度学习
·
算法
·
机器学习
·
数据挖掘
·
embedding
·
聚类
关于在深度聚类中Representation Collapse现象
推荐深蓝学院的《深度神经网络加速:cuDNN 与 TensorRT》,课程面向就业,细致讲解CUDA运算的理论支撑与实践,学完可以系统化掌握CUDA基础编程知识以及TensorRT实战,并且能够利用GPU开发高性能、高并发的软件系统,感兴趣可以直接看看链接:深蓝学院《深度神经网络加速:cuDNN 与 TensorRT》
SHIPKING393
17 天前
embedding
·
faiss
·
向量数据库
·
阿里百炼
【嵌入模型与向量数据库】
目录一、什么是向量?二、为什么需要向量数据库?三、向量数据库的特点四、常见的向量数据库产品FAISS 支持的索引类型 vs 相似度
工头阿乐
18 天前
人工智能
·
pytorch
·
embedding
PyTorch中的nn.Embedding应用详解
在深度学习中,词嵌入(Word Embedding)是一种常见的技术,用于将离散的词汇或符号映射到连续的向量空间。这种映射使得相似的词汇在向量空间中具有相似的向量表示,从而可以捕捉词汇之间的语义关系。在PyTorch中,nn.Embedding模块提供了一种简单而高效的方式来实现词嵌入。
浪淘沙jkp
18 天前
人工智能
·
llm
·
embedding
·
agent
·
知识库
·
dify
·
deepseek
AI大模型学习二十、利用Dify+deepseekR1 使用知识库搭建初中英语学习智能客服机器人
很多情况下 LLM 知识库可以让 Agent 从中定位到准确的信息,从而准确地回答问题。在一些特定领域,比如客服、检索工具等有应用。
明明跟你说过
19 天前
人工智能
·
语言模型
·
embedding
深入理解Embedding Models(嵌入模型):从原理到实战(下)
🐇明明跟你说过:个人主页🏅个人专栏:《深度探秘:AI界的007》 🏅🔖行路有良友,便是天堂🔖
yibuapi_com
21 天前
chatgpt
·
架构
·
langchain
·
embedding
·
claude
·
向量数据库
·
中转api
Embedding 的数学特性与可视化解析
取词向量维度 d = 50 d=50 d=50 的 GloVe 嵌入示例:资料推荐采用分段颜色映射策略:
仙人掌_lz
22 天前
人工智能
·
ai
·
自然语言处理
·
embedding
·
强化学习
·
rl
·
bge
为特定领域微调嵌入模型:打造专属的自然语言处理利器
“学习不是装满一桶水,而是点燃一把火。” —— 叶芝我的博客主页: https://lizheng.blog.csdn.net
背太阳的牧羊人
1 个月前
人工智能
·
bert
·
embedding
OpenAI Embedding 和密集检索(如 BERT/DPR)进行语义相似度搜索有什么区别和联系
OpenAI Embedding 和密集检索(如 BERT/DPR)其实是“同一种思想的不同实现”,它们都属于Dense Retrieval(密集向量检索),只不过使用的模型、部署方式和调用方式不同。
ai大模型木子
1 个月前
人工智能
·
自然语言处理
·
bert
·
embedding
·
word2vec
·
ai大模型
·
大模型资料
嵌入模型(Embedding Models)原理详解:从Word2Vec到BERT的技术演进
嵌入模型(Embedding Models) 是一种将高维离散数据(如文本、图像)转换为低维连续向量表示的技术。这些向量能够反映数据的语义关系,使得“语义相近的实体在向量空间中距离更近”。例如:
老马啸西风
2 个月前
数据库
·
算法
·
云原生
·
中间件
·
embedding
·
neo4j
Neo4j GDS-13-neo4j GDS 库中节点插入算法实现
Neo4j APOC-01-图数据库 apoc 插件介绍Neo4j GDS-01-graph-data-science 图数据科学插件库概览
SQLplusDB
2 个月前
数据库
·
oracle
·
embedding
Oracle 23ai Vector Search 系列之3 集成嵌入生成模型(Embedding Model)到数据库示例,以及常见错误
Windows 环境图形化安装 Oracle 23ai Oracle 23ai Vector Search 系列之1 架构基础 Oracle 23ai Vector Search 系列之2 ONNX(Open Neural Network Exchange)
墨绿色的摆渡人
2 个月前
人工智能
·
pytorch
·
python
·
深度学习
·
语言模型
·
embedding
用 pytorch 从零开始创建大语言模型(六):对分类进行微调
本章内容包括:到目前为止,我们已经编写了LLM架构,对其进行了预训练,并学习了如何将来自外部来源(如OpenAI)的预训练权重导入我们的模型中。现在我们将开始收获劳动成果,通过在特定目标任务上对LLM进行微调,例如文本分类。本章中我们要研究的具体示例是将短信分类为“垃圾信息”或“非垃圾信息”。图6.1强调了对LLM进行微调的两种主要方式:用于分类的微调(步骤8)和用于指令跟随的微调(步骤9)。
花千树-010
2 个月前
gpt
·
架构
·
prompt
·
aigc
·
embedding
·
llama
·
agi
Dify - 架构、部署、扩展与二次开发指南
本文详细解析 Dify 的架构、部署流程、高可用中间件的独立部署方法,以及二次开发流程,帮助开发者更高效地管理和扩展 Dify。
花千树-010
2 个月前
python
·
机器学习
·
langchain
·
pdf
·
prompt
·
aigc
·
embedding
LangChain教程 - Agent -之 REACT_DOCSTORE
在智能问答和知识检索的场景下,如何让 AI 既具备推理能力,又能高效利用外部知识库?ReAct 框架已经展现了强大的推理能力,而 ReACT_DOCSTORE 则进一步增强了这一能力,结合了文档存储(DocStore),让 AI 先检索文档,再进行推理,从而提供更加准确的信息。
Sirius Wu
3 个月前
容器
·
kubernetes
·
embedding
三级缓存架构
三级缓存架构是一种通过分层缓存设计来优化系统性能、降低数据库负载、提高数据访问效率的解决方案,尤其适用于高并发、高吞吐量的业务场景(如电商、社交平台、实时推荐等)。其核心思想是通过多级缓存逐层过滤请求,减少对底层存储的直接访问。以下是三级缓存的详细解析:
花千树-010
3 个月前
人工智能
·
机器学习
·
chatgpt
·
prompt
·
aigc
·
embedding
微调训练方法概述:Fine-tuning、Prompt-tuning、P-tuning 及其他高效技术
在深度学习和自然语言处理(NLP)领域,预训练模型(如 GPT、BERT 等)已经成为许多任务的基石。然而,尽管这些模型在预训练阶段学习了大量的通用知识,它们通常仍然需要根据特定任务进行微调,以实现最佳的任务性能。微调训练(fine-tuning)就是一种基于预训练模型,在特定任务数据上进一步训练的策略。