本地部署

招风的黑耳1 天前
nginx·html·axure·本地部署
使用Nginx本地部署Axure生成的HTML文件,局域网内浏览器通过IP和地址访问在原型设计阶段,Axure是一款非常流行的工具,它能够帮助设计师快速创建交互原型。然而,有时候我们需要将这些原型分享给团队内的其他成员进行评审和测试。这时,通过Nginx将Axure生成的HTML文件部署到本地服务器,并在局域网内通过IP和地址进行访问,便成为了一个非常实用的解决方案。本文将详细介绍如何完成这一操作。
shandianchengzi3 天前
服务器·llm·api·本地部署·deepseek
【笔记】LLM|Ubuntu22服务器极简本地部署DeepSeek+联网使用方式2025/02/18说明:2月18日~2月20日是2024年度博客之星投票时间,走过路过可以帮忙点点投票吗?我想要前一百的实体证书,经过我严密的计算只要再拿到60票就稳了。一人可能会有多票,Thanks♪(・ω・)ノ传送门如下:https://www.csdn.net/blogstar2024/detail/151
wrj的博客3 天前
本地部署·ollama·deepseek
1 使用ollama完成DeepSeek本地部署ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型。
奋斗的袍子0074 天前
人工智能·后端·深度学习·大模型·webui·本地部署·deepseek
DeepSeek-R1本地部署详细指南!(Ollama+Chatbox AI+Open WebUI)DeepSeek(深度求索)是一家中国人工智能企业,其在人工智能领域取得了显著成果,特别是其发布的新一代大模型DeepSeek-R1和DeepSeek-V3,受到了广泛关注。
F_D_Z9 天前
本地部署·deepseek·deepseek-r1
【清晰教程】本地部署DeepSeek-r1模型【清晰教程】通过Docker为本地DeepSeek-r1部署WebUI界面-CSDN博客目录Ollama
LucianaiB11 天前
python·ai·gpu·本地部署·deepseek
深度对比析:DeepSeek服务优胜本地部署、网页版与蓝耘GPU智算云平台的较量以及删除本地部署的过程🌟 嗨,我是LucianaiB!🌍 总有人间一两风,填我十万八千梦。🚀 路漫漫其修远兮,吾将上下而求索。
Jackilina_Stone13 天前
linux·运维·人工智能·ubuntu·本地部署·deepseek
【Ubuntu】本地部署Deep Seek(深度求索)大模型的保姆级教程 | 详细教程杭州深度求索人工智能基础技术研究有限公司(简称“深度求索”或“DeepSeek”),成立于2023年,DeepSeek是一家专注通用人工智能(AGI)的中国科技公司,主攻大模型研发与应用,经营范围包括技术服务、技术开发、软件开发等。DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费使用。支持联网搜索和深度思考模式。
GuangdongQi13 天前
本地部署·ollama·deepseek
Ollama 部署 DeepSeek-R1 及Open-WebUI部署环境与资源数据安全与控制更新维护与扩展性成本结构最重要的Ollama 是一个开源的 AI 模型,主要用于生成和理解图像。它由 Anthropic 开发并发布,这是一个专注于 AI 研究的公司。Ollama 的核心功能包括图像生成、图像分割和图像分类等任务。
后端研发Marion14 天前
人工智能·深度学习·机器学习·本地部署·deepseek
【DeepSeek】DeepSeek小模型蒸馏与本地部署深度解析DeepSeek小模型蒸馏与本地部署深度解析在人工智能领域,大型语言模型(LLM)如DeepSeek以其卓越的自然语言理解和生成能力,推动了众多应用场景的发展。然而,大型模型的高昂计算和存储成本,以及潜在的数据隐私风险,限制了其在某些场景下的应用。为了克服这些挑战,DeepSeek引入了知识蒸馏技术,通过将大型模型的知识转移到小型模型中,实现了模型的轻量化。本文将深入探讨DeepSeek小模型蒸馏的原理,并提供详细的本地部署步骤,帮助用户更好地理解和应用这一技术。
算家云18 天前
langchain·chatglm·本地部署·chatchat·算家云·应用社区
基于Langchain-Chatchat + ChatGLM 本地部署知识库参考链接: Github:https://github.com/chatchat-space/Langchain-Chatchat
小康师兄18 天前
windows·ai·大模型·本地部署·ollama·deepseek·deepseek-r1
Windows电脑本地部署运行DeepSeek R1大模型(基于Ollama和Chatbox)电脑配置越高可以运行版本更高的DeepSeek R1模型。 DeepSeek R1模型版本越高,参数越多,模型越大,效果越好。
程序猿000001号20 天前
大模型·本地部署·deepseek
DeepSeek本地部署详细指南随着人工智能技术的飞速发展,本地部署大模型的需求也日益增加。DeepSeek作为一款开源且性能强大的大语言模型,提供了灵活的本地部署方案,让用户能够在本地环境中高效运行模型,同时保护数据隐私。以下是详细的DeepSeek本地部署流程。
engchina4 个月前
本地部署·mini-omni
本地部署 mini-omni使用浏览器打开 http://localhost:8501/ 进行访问。使用浏览器打开 http://localhost:7860/ 进行访问。
代码讲故事4 个月前
java·人工智能·开源·powerpoint·ppt·本地部署·离线部署
AI自动生成PPT解决方案,AI生成PPT-PrensentationGen-Java实现AI自动生成PPT解决方案,AI生成PPT-PrensentationGen-Java实现。利用大语言模型生成PPT文件的SpringBoot Web应用,主要功能是自动化创建演示文稿,适用于快速制作演示材料,特色在于其高效的模板处理和文本替换技术。
代码讲故事4 个月前
人工智能·智能手机·开源·llama·多模态·本地部署·离线部署
Llama系列上新多模态!3.2版本开源超闭源,还和Arm联手搞了手机优化版,Meta首款多模态Llama 3.2开源!1B羊驼宝宝,跑在手机上了Llama系列上新多模态!3.2版本开源超闭源,还和Arm联手搞了手机优化版,Meta首款多模态Llama 3.2开源!1B羊驼宝宝,跑在手机上了!
engchina7 个月前
人工智能·本地部署·sensevoice
本地部署 SenseVoice - 阿里开源语音大模型使用浏览器打开 http://localhost:7860,
冻感糕人~8 个月前
人工智能·gpt·自然语言处理·大语言模型·ai大模型·计算机技术·本地部署
GPT大模型不再遥不可及:本地化部署让每个人都能拥有我们提到大模型就想到这个东西不是我们普通人可以拥有的,因为太耗费服务器资源,注定了可以提供大模型服务的只能是大厂。
Alex_StarSky1 年前
llm·私有化部署·qwen·本地部署·qwen14b·24g显存·cuda12
GPT实战系列-实战Qwen在Cuda 12+24G部署方案ChatGLM4进行新闻发布,但还没有开源更新,在此之际,实战部署测试Qwen大模型。目前Qwen的口碑貌似还不错,测试显卡内存24G,毕竟有限,排除了Qwen14非量化方案Qwen-14B-Chat,只有 Qwen-7B-Chat,Qwen-7B-Chat-Int4,Qwen-14B-Chat-Int4 模型可用。测试过程中Qwen-7B-Chat出现显存bug,只能都用Int4方案。
Alex_StarSky1 年前
langchain·大模型·llm·本地部署·chatglm3·天气查询助手
GPT实战系列-LangChain + ChatGLM3构建天气查询助手用ChatGLM的工具可以实现很多查询接口和执行命令,而LangChain是很热的大模型应用框架。如何联合它们实现大模型查询助手功能?例如调用工具实现网络天气查询助手功能。
不停感叹的老林_<C 语言编程核心突破>1 年前
大模型·本地部署·llama-2-7b
2024-01-04 用llama.cpp部署本地llama2-7b大模型点击 <C 语言编程核心突破> 快速C语言入门要解决问题: 使用一个准工业级大模型, 进行部署, 测试, 了解基本使用方法.