FoundationPose 4090部署 真实场景迁移

参考链接:
github代码
4090部署镜像拉取

前期准备

搜狗输入法安装
4090双屏不ok:最后发现是hdmi线坏了。。。。

demo 复现

环境部署(docker本地化部署)

拉取镜像

bash 复制代码
docker pull shingarey/foundationpose_custom_cuda121:latest

修改run_container.sh如下,并`bash docker/run_container.sh

bash 复制代码
docker rm -f foundationpose_cuda121
DIR=$(pwd)/../
xhost +  && docker run --gpus all --env NVIDIA_DISABLE_REQUIRE=1 -it --network=host --name foundationpose_cuda121  --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v $DIR:$DIR -v FoundationPose所在目录:/usr/ -v /mnt:/mnt -v /tmp/.X11-unix:/tmp/.X11-unix -v /tmp:/tmp  --ipc=host -e DISPLAY=${DISPLAY} -e GIT_INDEX_FILE shingarey/foundationpose_custom_cuda121:latest(拉取的4090镜像) bash

执行`bash build_all.sh,详细说明此处执行的操作,以及相应注意事项

bash 复制代码
DIR=$(pwd)

cd $DIR/mycpp/ && mkdir -p build && cd build && cmake .. -DPYTHON_EXECUTABLE=$(which python) && make -j11
木得问题,顺利通过

cd /kaolin && rm -rf build *egg* && pip install -e .
(1)rm -rf build *egg*不能将.egg删掉,我手动删除的,不知道此处.egg要不要删除,删除没有报错就是了
(2)此处pip install -e .的时候会出现subprocess报错,安装失败的问题,排查发现是下载源的问题:
切换清华源:
临时:pip install -e . -i https://pypi.tuna.tsinghua.edu.cn/simple
永久:写到配置文件里面
配置文件的可能位置:
用户级配置
~/.pip/pip.conf 或 ~/.config/pip/pip.conf
系统级配置
/etc/pip.conf
查看当前生效的配置文件路径:pip config -v list
切换精华源:
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
pip config set install.trusted-host pypi.tuna.tsinghua.edu.cn 
恢复默认配置:
pip config unset global.index-url
pip config unset install.trusted-host
验证修改是否生效:
pip config list

cd $DIR/bundlesdf/mycuda && rm -rf build *egg* && pip install -e .
(1)update the compiler flags in bundlesdf/mycuda/setup.py from c++14 to c++17:
nvcc_flags = ['-Xcompiler', '-O3', '-std=c++17', '-U__CUDA_NO_HALF_OPERATORS__', '-U__CUDA_NO_HALF_CONVERSIONS__', '-U__CUDA_NO_HALF2_OPERATORS__']
c_flags = ['-O3', '-std=c++17']
(2)此处pip install -e .的时候会出现subprocess报错,安装失败的问题:方法同上
cd ${DIR}

再次进入镜像

bash 复制代码
docker exec -it foundationpose bash

demo运行

准备工作

参考readme的Data prepare部分即可

运行python run_demo.py

结果视频跟robot_mustard.mp4 想同

存在问题及解决方法

问题1:运行python run_demo.py

报错:Segmentation fault (core dumped)

原因待查

相关推荐
哥本哈士奇(aspnetx)7 小时前
Streamlit + LangChain 1.0 简单实现智能问答前后端
python·大模型
青衫客3613 小时前
浅谈 LightRAG —— 把“结构理解”前移到索引阶段的 RAG 新范式
大模型·llm·rag
AI大模型学徒13 小时前
大模型应用开发(十七)_RAG架构概述
大模型·知识库·rag·deepseek
ezeroyoung14 小时前
鸿蒙MindSpore Lite 离线模型转换指南
华为·大模型·harmonyos
北邮刘老师14 小时前
【智能体互联协议解析】ACPs/AIP为什么还在用“落后”的“中心化”架构?
网络·人工智能·架构·大模型·智能体·智能体互联网
北邮刘老师15 小时前
【智能体协议解析】一个完整的智能体互联协作流程
人工智能·大模型·智能体·智能体互联网
Elwin Wong20 小时前
本地运行LangChain Agent用于开发调试
人工智能·langchain·大模型·llm·agent·codingagent
我很哇塞耶1 天前
英伟达开源发布最新AI模型!引入突破性专家混合架构,推理性能超越Qwen3和GPT,百万token上下文,模型数据集全开源!
人工智能·ai·大模型
zuoyou-HPU1 天前
ChatGLM4 的 tokenizer 配置文件解析
python·大模型·glm
找方案1 天前
hello-agents 学习笔记:从概念到落地,初识智能体的奇妙世界
人工智能·笔记·学习·大模型