本地部署

engchina1 个月前
本地部署·mini-omni
本地部署 mini-omni使用浏览器打开 http://localhost:8501/ 进行访问。使用浏览器打开 http://localhost:7860/ 进行访问。
代码讲故事1 个月前
java·人工智能·开源·powerpoint·ppt·本地部署·离线部署
AI自动生成PPT解决方案,AI生成PPT-PrensentationGen-Java实现AI自动生成PPT解决方案,AI生成PPT-PrensentationGen-Java实现。利用大语言模型生成PPT文件的SpringBoot Web应用,主要功能是自动化创建演示文稿,适用于快速制作演示材料,特色在于其高效的模板处理和文本替换技术。
代码讲故事1 个月前
人工智能·智能手机·开源·llama·多模态·本地部署·离线部署
Llama系列上新多模态!3.2版本开源超闭源,还和Arm联手搞了手机优化版,Meta首款多模态Llama 3.2开源!1B羊驼宝宝,跑在手机上了Llama系列上新多模态!3.2版本开源超闭源,还和Arm联手搞了手机优化版,Meta首款多模态Llama 3.2开源!1B羊驼宝宝,跑在手机上了!
engchina4 个月前
人工智能·本地部署·sensevoice
本地部署 SenseVoice - 阿里开源语音大模型使用浏览器打开 http://localhost:7860,
冻感糕人~5 个月前
人工智能·gpt·自然语言处理·大语言模型·ai大模型·计算机技术·本地部署
GPT大模型不再遥不可及:本地化部署让每个人都能拥有我们提到大模型就想到这个东西不是我们普通人可以拥有的,因为太耗费服务器资源,注定了可以提供大模型服务的只能是大厂。
Alex_StarSky10 个月前
llm·私有化部署·qwen·本地部署·qwen14b·24g显存·cuda12
GPT实战系列-实战Qwen在Cuda 12+24G部署方案ChatGLM4进行新闻发布,但还没有开源更新,在此之际,实战部署测试Qwen大模型。目前Qwen的口碑貌似还不错,测试显卡内存24G,毕竟有限,排除了Qwen14非量化方案Qwen-14B-Chat,只有 Qwen-7B-Chat,Qwen-7B-Chat-Int4,Qwen-14B-Chat-Int4 模型可用。测试过程中Qwen-7B-Chat出现显存bug,只能都用Int4方案。
Alex_StarSky10 个月前
langchain·大模型·llm·本地部署·chatglm3·天气查询助手
GPT实战系列-LangChain + ChatGLM3构建天气查询助手用ChatGLM的工具可以实现很多查询接口和执行命令,而LangChain是很热的大模型应用框架。如何联合它们实现大模型查询助手功能?例如调用工具实现网络天气查询助手功能。
不停感叹的老林_<C 语言编程核心突破>1 年前
大模型·本地部署·llama-2-7b
2024-01-04 用llama.cpp部署本地llama2-7b大模型点击 <C 语言编程核心突破> 快速C语言入门要解决问题: 使用一个准工业级大模型, 进行部署, 测试, 了解基本使用方法.
Alex_StarSky1 年前
人工智能·ai·chatgpt·大模型·gpt4·chatglm·本地部署
GPT实战系列-ChatGLM2部署Ubuntu+Cuda11+显存24G实战方案自从chatGPT掀起的AI大模型热潮以来,国内大模型研究和开源活动,进展也如火如荼。模型越来越大,如何在小显存部署和使用大模型?
-代号95271 年前
java·linux·flink·本地部署
【基础篇】四、本地部署FlinkFlink的常见三种部署方式:独立部署就是独立运行,即Flink自己管理Flink资源,不依靠任何外部的资源管理平台,比如K8S或者Hadoop的Yarn,当然,独立部署的代价就是:如果资源不足,或者出现故障,没有自动扩展或重分配资源的保证,必须手动处理,生产环境或者作业量大的场景下不建议采用独立部署。