技术栈
本地部署
engchina
2 个月前
本地部署
·
mini-omni
本地部署 mini-omni
使用浏览器打开 http://localhost:8501/ 进行访问。使用浏览器打开 http://localhost:7860/ 进行访问。
代码讲故事
2 个月前
java
·
人工智能
·
开源
·
powerpoint
·
ppt
·
本地部署
·
离线部署
AI自动生成PPT解决方案,AI生成PPT-PrensentationGen-Java实现
AI自动生成PPT解决方案,AI生成PPT-PrensentationGen-Java实现。利用大语言模型生成PPT文件的SpringBoot Web应用,主要功能是自动化创建演示文稿,适用于快速制作演示材料,特色在于其高效的模板处理和文本替换技术。
代码讲故事
2 个月前
人工智能
·
智能手机
·
开源
·
llama
·
多模态
·
本地部署
·
离线部署
Llama系列上新多模态!3.2版本开源超闭源,还和Arm联手搞了手机优化版,Meta首款多模态Llama 3.2开源!1B羊驼宝宝,跑在手机上了
Llama系列上新多模态!3.2版本开源超闭源,还和Arm联手搞了手机优化版,Meta首款多模态Llama 3.2开源!1B羊驼宝宝,跑在手机上了!
engchina
5 个月前
人工智能
·
本地部署
·
sensevoice
本地部署 SenseVoice - 阿里开源语音大模型
使用浏览器打开 http://localhost:7860,
冻感糕人~
6 个月前
人工智能
·
gpt
·
自然语言处理
·
大语言模型
·
ai大模型
·
计算机技术
·
本地部署
GPT大模型不再遥不可及:本地化部署让每个人都能拥有
我们提到大模型就想到这个东西不是我们普通人可以拥有的,因为太耗费服务器资源,注定了可以提供大模型服务的只能是大厂。
Alex_StarSky
1 年前
llm
·
私有化部署
·
qwen
·
本地部署
·
qwen14b
·
24g显存
·
cuda12
GPT实战系列-实战Qwen在Cuda 12+24G部署方案
ChatGLM4进行新闻发布,但还没有开源更新,在此之际,实战部署测试Qwen大模型。目前Qwen的口碑貌似还不错,测试显卡内存24G,毕竟有限,排除了Qwen14非量化方案Qwen-14B-Chat,只有 Qwen-7B-Chat,Qwen-7B-Chat-Int4,Qwen-14B-Chat-Int4 模型可用。测试过程中Qwen-7B-Chat出现显存bug,只能都用Int4方案。
Alex_StarSky
1 年前
langchain
·
大模型
·
llm
·
本地部署
·
chatglm3
·
天气查询助手
GPT实战系列-LangChain + ChatGLM3构建天气查询助手
用ChatGLM的工具可以实现很多查询接口和执行命令,而LangChain是很热的大模型应用框架。如何联合它们实现大模型查询助手功能?例如调用工具实现网络天气查询助手功能。
不停感叹的老林_<C 语言编程核心突破>
1 年前
大模型
·
本地部署
·
llama-2-7b
2024-01-04 用llama.cpp部署本地llama2-7b大模型
点击 <C 语言编程核心突破> 快速C语言入门要解决问题: 使用一个准工业级大模型, 进行部署, 测试, 了解基本使用方法.
Alex_StarSky
1 年前
人工智能
·
ai
·
chatgpt
·
大模型
·
gpt4
·
chatglm
·
本地部署
GPT实战系列-ChatGLM2部署Ubuntu+Cuda11+显存24G实战方案
自从chatGPT掀起的AI大模型热潮以来,国内大模型研究和开源活动,进展也如火如荼。模型越来越大,如何在小显存部署和使用大模型?
-代号9527
1 年前
java
·
linux
·
flink
·
本地部署
【基础篇】四、本地部署Flink
Flink的常见三种部署方式:独立部署就是独立运行,即Flink自己管理Flink资源,不依靠任何外部的资源管理平台,比如K8S或者Hadoop的Yarn,当然,独立部署的代价就是:如果资源不足,或者出现故障,没有自动扩展或重分配资源的保证,必须手动处理,生产环境或者作业量大的场景下不建议采用独立部署。