技术栈
mllm
农夫山泉2号
12 天前
qualcomm
·
mllm
·
qnn
【mllm】——x64模拟htp的后端无法编译debug
mllm, qnn, x64 code:https://github.com/UbiquitousLearning/mllm
伊织code
2 个月前
开源
·
lora
·
大模型
·
llm
·
微调
·
mllm
开源大模型食用指南 - 微调、部署 LLM、MLLM
《开源大模型食用指南》针对中国宝宝量身打造的基于Linux环境快速微调(全参数/Lora)、部署国内外开源大模型(LLM)/多模态大模型(MLLM)教程
paixiaoxin
4 个月前
人工智能
·
深度学习
·
机器学习
·
计算机视觉
·
语言模型
·
实时音视频
·
mllm
CV-MLLM经典论文解读|OneLLM: One Framework to Align All Modalities with Language
OneLLM: One Framework to Align All Modalities with Language
paixiaoxin
4 个月前
人工智能
·
深度学习
·
机器学习
·
计算机视觉
·
语言模型
·
大语言模型
·
mllm
CV-MLLM经典论文解读| Link-Context Learning for Multimodal LLMs面向多模态大型语言模型的链接上下文学习
Link-Context Learning for Multimodal LLMs面向多模态大型语言模型的链接上下文学习
SpikeKing
6 个月前
人工智能
·
swift
·
modelscope
·
多模态大模型
·
推理
·
mllm
·
微调框架
LLM - 配置 ModelScope SWIFT 测试 Qwen2-VL 模型推理(Infer) 教程 (1)
欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/142827217
SpikeKing
7 个月前
人工智能
·
语言模型
·
自然语言处理
·
finetune
·
mllm
·
多模态大语言模型
·
指令微调
LLM - 使用 XTuner 指令微调 多模态大语言模型(InternVL2) 教程
欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/142528967
SpikeKing
7 个月前
人工智能
·
语言模型
·
预训练
·
mllm
·
多模态大语言模型
·
qwen-vl
·
laion
LLM - 理解 多模态大语言模型 (MLLM) 的预训练与相关技术 (三)
欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/142063880
SpikeKing
8 个月前
人工智能
·
语言模型
·
clip
·
mllm
·
多模态大语言模型
·
openclip
·
cogvlm
LLM - 理解 多模态大语言模型 (MLLM) 的架构与相关技术 (二)
欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/142063880
m0_60388871
8 个月前
人工智能
·
mllm
MiniCPM-V: A GPT-4V Level MLLM on Your Phone
现有的MLLM通常需要大量的参数和计算资源,限制了其在实际应用中的范围。大部分MLLM需要部署在高性能云服务器上,这种高成本和高能耗的特点,阻碍了其在移动设备、离线和隐私保护场景中的应用。
同屿Firmirin
8 个月前
目标检测
·
计算机视觉
·
aigc
·
多模态大模型
·
shikra
·
mllm
·
grounding
目标检测多模态大模型实践:貌似是全网唯一Shikra的部署和测试教程,内含各种踩坑以及demo代码
原文: Shikra: Unleashing Multimodal LLM’s Referential Dialogue Magic 代码: https://github.com/shikras/shikra 模型: https://huggingface.co/shikras/shikra-7b-delta-v1 https://huggingface.co/shikras/shikra7b-delta-v1-0708 第一个是论文用的,第二个会有迭代。