FoundationPose 4090部署 真实场景迁移

参考链接:
github代码
4090部署镜像拉取

前期准备

搜狗输入法安装
4090双屏不ok:最后发现是hdmi线坏了。。。。

demo 复现

环境部署(docker本地化部署)

拉取镜像

bash 复制代码
docker pull shingarey/foundationpose_custom_cuda121:latest

修改run_container.sh如下,并`bash docker/run_container.sh

bash 复制代码
docker rm -f foundationpose_cuda121
DIR=$(pwd)/../
xhost +  && docker run --gpus all --env NVIDIA_DISABLE_REQUIRE=1 -it --network=host --name foundationpose_cuda121  --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v $DIR:$DIR -v FoundationPose所在目录:/usr/ -v /mnt:/mnt -v /tmp/.X11-unix:/tmp/.X11-unix -v /tmp:/tmp  --ipc=host -e DISPLAY=${DISPLAY} -e GIT_INDEX_FILE shingarey/foundationpose_custom_cuda121:latest(拉取的4090镜像) bash

执行`bash build_all.sh,详细说明此处执行的操作,以及相应注意事项

bash 复制代码
DIR=$(pwd)

cd $DIR/mycpp/ && mkdir -p build && cd build && cmake .. -DPYTHON_EXECUTABLE=$(which python) && make -j11
木得问题,顺利通过

cd /kaolin && rm -rf build *egg* && pip install -e .
(1)rm -rf build *egg*不能将.egg删掉,我手动删除的,不知道此处.egg要不要删除,删除没有报错就是了
(2)此处pip install -e .的时候会出现subprocess报错,安装失败的问题,排查发现是下载源的问题:
切换清华源:
临时:pip install -e . -i https://pypi.tuna.tsinghua.edu.cn/simple
永久:写到配置文件里面
配置文件的可能位置:
用户级配置
~/.pip/pip.conf 或 ~/.config/pip/pip.conf
系统级配置
/etc/pip.conf
查看当前生效的配置文件路径:pip config -v list
切换精华源:
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
pip config set install.trusted-host pypi.tuna.tsinghua.edu.cn 
恢复默认配置:
pip config unset global.index-url
pip config unset install.trusted-host
验证修改是否生效:
pip config list

cd $DIR/bundlesdf/mycuda && rm -rf build *egg* && pip install -e .
(1)update the compiler flags in bundlesdf/mycuda/setup.py from c++14 to c++17:
nvcc_flags = ['-Xcompiler', '-O3', '-std=c++17', '-U__CUDA_NO_HALF_OPERATORS__', '-U__CUDA_NO_HALF_CONVERSIONS__', '-U__CUDA_NO_HALF2_OPERATORS__']
c_flags = ['-O3', '-std=c++17']
(2)此处pip install -e .的时候会出现subprocess报错,安装失败的问题:方法同上
cd ${DIR}

再次进入镜像

bash 复制代码
docker exec -it foundationpose bash

demo运行

准备工作

参考readme的Data prepare部分即可

运行python run_demo.py

结果视频跟robot_mustard.mp4 想同

存在问题及解决方法

问题1:运行python run_demo.py

报错:Segmentation fault (core dumped)

原因待查

相关推荐
Wild_Pointer.6 小时前
面向Qt/C++开发工程师的Ai提示词(附Trae示例)
人工智能·ai·大模型
喜欢吃豆12 小时前
从潜在空间到实际应用:Embedding模型架构与训练范式的综合解析
python·自然语言处理·架构·大模型·微调·embedding
CoderJia程序员甲13 小时前
GitHub 热榜项目 - 日榜(2025-10-10)
ai·开源·大模型·github·ai教程
喜欢吃豆14 小时前
从指令到智能:大型语言模型提示词工程与上下文工程的综合分析
人工智能·语言模型·自然语言处理·大模型·提示词工程·上下文工程
飞机火车巴雷特18 小时前
【论文阅读】Debating with More Persuasive LLMs Leads to More Truthful Answers
论文阅读·大模型·辩论机制
喜欢吃豆20 小时前
多轮智能对话系统架构方案(可实战):从基础模型到自我优化的对话智能体,数据飞轮的重要性
人工智能·语言模型·自然语言处理·系统架构·大模型·多轮智能对话系统
Jolie_Liang1 天前
金融大模型应用现状及未来趋势研究:国内外对比分析
金融·大模型
过往入尘土1 天前
服务端与客户端的简单链接
人工智能·python·算法·pycharm·大模型
居7然1 天前
京东开源王炸!JoyAgent-JDGenie如何重新定义智能体开发?
人工智能·开源·大模型·mcp
Cyan_RA92 天前
Linux 远程Ubuntu服务器本地部署大模型 EmoLLM 中常见的问题及解决方案 万字详解
linux·运维·服务器·ubuntu·大模型·远程部署·emollm