llm

致Great1 天前
人工智能·llm
从零开始优化 RAG 流程的终极指南,解决检索增强生成的核心挑战首先,我们将 RAG 工作流程分为三个部分,以增强我们对 RAG 的理解,并优化每个部分以提高整体性能:
一 铭2 天前
人工智能·语言模型·大模型·llm
dify实现分析-rag-关键词索引的实现在dify中有两种构建索引的方式,一种是经济型,另一种是高质量索引(通过向量数据库来实现)。其中经济型就是关键词索引,通过构建关键词索引来定位查询的文本块,而关键词索引的构建是通过Jieba这个库来完成的。
shandianchengzi2 天前
服务器·llm·api·本地部署·deepseek
【笔记】LLM|Ubuntu22服务器极简本地部署DeepSeek+联网使用方式2025/02/18说明:2月18日~2月20日是2024年度博客之星投票时间,走过路过可以帮忙点点投票吗?我想要前一百的实体证书,经过我严密的计算只要再拿到60票就稳了。一人可能会有多票,Thanks♪(・ω・)ノ传送门如下:https://www.csdn.net/blogstar2024/detail/151
cpuCode3 天前
人工智能·深度学习·ai·自然语言处理·大模型·llm·bert
BERT 大模型BERT 特点 :BERT 架构:双向编码模型 :Embedding 组成 :Transformer :
码农阿豪4 天前
人工智能·llm·ollama·deepseek
本地部署Anything LLM+Ollama+DeepSeek R1打造AI智能知识库教程本文主要介绍如何在Windows电脑上本地部署Ollama并接入DeepSeek R1大模型,然后使用强大的开源AI工具Anything LLM结合cpolar内网穿透工具轻松实现随时随地使用与上传内容来训练本地部署的大模型,无需公网IP,也不用准备云服务器那么麻烦!
Iotfsd4 天前
人工智能·语言模型·llm·wps·deepseek·灵犀·底座模型
WPS的AI助手进化跟踪(灵犀+插件)V0.0 250216: 如何给WPS安装插件用以支持其他大模型LLMV0.1 250217: WPS的灵犀AI现在是DeepSeek R1(可能是全参数671B)
程序设计实验室4 天前
ai·llm
LLM探索:离线部署Ollama和one-api服务之前已经在Linux服务器上使用Ollama部署了DeepSeek这次在没有外网(应该说是被限制比较多)的服务器上部署,遇到一些坑,记录一下
x-cmd4 天前
ai·机器人·llm·钉钉·飞书·webhook·deepseek
[250217] x-cmd 发布 v0.5.3:新增 DeepSeek AI 模型支持及飞书/钉钉群机器人 Webhook 管理新增 deepseek 模块,用户可通过 @deepseek 直接请求使用 DeepSeek AI 模型。 目前支持两种模型:
shandianchengzi4 天前
ubuntu·llm·bug·llama·ollama·deepseek
【BUG】LLM|Ubuntu 用 ollama 部署 DeepSeek 但没输出,llama 有输出在Ubuntu 22服务器部署DeepSeek模型时,发现Ollama服务无响应输出(如图1)。通过系统日志和版本比对,最终定位为Ollama版本过低导致的新模型兼容性问题。
薛尧笔记5 天前
llm·deepseek
解锁AnythingLLM与DeekSeek:AI探索新征程你是否曾想拥有一位全能 AI 伙伴,不仅能陪你畅聊、答疑解惑,还能根据你的独特需求,定制专属知识库,成为你的“超级大脑”?如今,随着人工智能的飞速发展,这一愿景已然成为现实。今天,让我们走进 AnythingLLM 与 DeekSeek 的智能世界,探索如何利用它们打造属于自己的 AI 助手。
人工智能小豪6 天前
人工智能·程序员·llm·清华大学·fastgpt·deepseek·本地化部署
水务+AI应用探索(一)| FastGPT+DeepSeek 本地部署在当下的科技浪潮中,AI 无疑是最炙手可热的焦点之一,其强大的能力催生出了丰富多样的应用场景,广泛渗透到各个行业领域。对于水务行业而言,AI 的潜力同样不可估量。为了深入探究 AI 在水务领域的实际应用成效,切实掌握与之相关的前沿应用技术,我们积极开展了 AI 在水务业务应用方面的实践工作,力求为行业发展带来新的突破与变革。
Q同学6 天前
深度学习·llm·nlp
一张4060完成一个miniLLM全流程训练(一):预训练之前装机时配了一个12600kf+4060的主机,今天在Github上看到一个名为MiniMind2的项目,旨在使用很小的算力就可以打造全流程的LLM训练,感觉很有趣,今天下午便尝试了一番。注意:以下所有实验在Windows主机的WSL子系统中实现。
O-A-A7 天前
gpt·chatgpt·llm·gpt-3
LLM:GPT 系列阅读原文: LLM:Qwen 系列GPT(Generative Pre-trained Transformer)是生成式预训练语言模型,基于 Transformer 架构,专注于通过自回归的方式生成自然语言文本,即给定一个输入序列 x = { x 1 , x 2 , . . . , x t } x = \{x_1, x_2, ..., x_t\} x={x1,x2,...,xt},模型学习预测下一个单词 x t + 1 x_{t+1} xt+1 的条件概率 P ( x t + 1 ∣ x 1 , . .
uncle_ll7 天前
大模型·llm·llama·qwen·rag
基于 llama-index与Qwen大模型实现RAGLlamaIndex和Langchain都是比较成熟的RAG和Agent框架,这里基于llama实现RAG框架,大模型选用阿里的开源模型Qwen大模型。可以实现Qwen2.5 与外部数据(例如文档、网页等)的连接,利用 LlamaIndex 与 Qwen2.5 快速部署检索增强生成(RAG)技术。
AlfredZhao7 天前
ai·llm·ollama·deepseek·page assist
手把手教你更优雅的享受 DeepSeek开始之前,首先要确定你已经配置好Ollama软件并正常运行DeepSeek本地模型。如果这一步还不清楚,请翻看之前的手把手教程《手把手教你部署 DeepSeek 本地模型》。
HuggingFace8 天前
llm
让 LLM 来评判 | 奖励模型相关内容这是 让 LLM 来评判 系列文章的第五篇,敬请关注系列文章:奖励模型通过学习人工标注的成对 prompt 数据来预测分数,优化目标是对齐人类偏好。 训练完成后,奖励模型可以作为人工评估代理的奖励函数,用来改进其他模型。
SunStriKE10 天前
llm·模型训练
deepseek-v3 论文阅读主要作用是在保证效果的基础上, 利用低秩压缩的原理优化kvCache, 加速推理, 同时节省训练显存.
YuiGod10 天前
linux·llm
《从零开始DeepSeek R1搭建本地知识库问答系统》一:利用WSL2搭建Linux子系统并设置运行环境最近推出的 DeepSeek R1 异常火爆,我也想趁此机会捣鼓一下,实现 DeepSeek R1 本地化部署并搭建本地知识库问答系统,其中实现的思路如下:
每天看一遍,防止恋爱&&堕落10 天前
缓存·langchain·大模型·llm·agent·大模型缓存
5、大模型的记忆与缓存本节主要介绍大模型的缓存思路,通过使用常见的缓存技术,降低大模型的回复速度,下面介绍的是使用redis和mem0,当然redis的语义缓存还可以使用一些rag的检索库进行替代