FoundationPose 4090部署 真实场景迁移

参考链接:
github代码
4090部署镜像拉取

前期准备

搜狗输入法安装
4090双屏不ok:最后发现是hdmi线坏了。。。。

demo 复现

环境部署(docker本地化部署)

拉取镜像

bash 复制代码
docker pull shingarey/foundationpose_custom_cuda121:latest

修改run_container.sh如下,并`bash docker/run_container.sh

bash 复制代码
docker rm -f foundationpose_cuda121
DIR=$(pwd)/../
xhost +  && docker run --gpus all --env NVIDIA_DISABLE_REQUIRE=1 -it --network=host --name foundationpose_cuda121  --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v $DIR:$DIR -v FoundationPose所在目录:/usr/ -v /mnt:/mnt -v /tmp/.X11-unix:/tmp/.X11-unix -v /tmp:/tmp  --ipc=host -e DISPLAY=${DISPLAY} -e GIT_INDEX_FILE shingarey/foundationpose_custom_cuda121:latest(拉取的4090镜像) bash

执行`bash build_all.sh,详细说明此处执行的操作,以及相应注意事项

bash 复制代码
DIR=$(pwd)

cd $DIR/mycpp/ && mkdir -p build && cd build && cmake .. -DPYTHON_EXECUTABLE=$(which python) && make -j11
木得问题,顺利通过

cd /kaolin && rm -rf build *egg* && pip install -e .
(1)rm -rf build *egg*不能将.egg删掉,我手动删除的,不知道此处.egg要不要删除,删除没有报错就是了
(2)此处pip install -e .的时候会出现subprocess报错,安装失败的问题,排查发现是下载源的问题:
切换清华源:
临时:pip install -e . -i https://pypi.tuna.tsinghua.edu.cn/simple
永久:写到配置文件里面
配置文件的可能位置:
用户级配置
~/.pip/pip.conf 或 ~/.config/pip/pip.conf
系统级配置
/etc/pip.conf
查看当前生效的配置文件路径:pip config -v list
切换精华源:
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
pip config set install.trusted-host pypi.tuna.tsinghua.edu.cn 
恢复默认配置:
pip config unset global.index-url
pip config unset install.trusted-host
验证修改是否生效:
pip config list

cd $DIR/bundlesdf/mycuda && rm -rf build *egg* && pip install -e .
(1)update the compiler flags in bundlesdf/mycuda/setup.py from c++14 to c++17:
nvcc_flags = ['-Xcompiler', '-O3', '-std=c++17', '-U__CUDA_NO_HALF_OPERATORS__', '-U__CUDA_NO_HALF_CONVERSIONS__', '-U__CUDA_NO_HALF2_OPERATORS__']
c_flags = ['-O3', '-std=c++17']
(2)此处pip install -e .的时候会出现subprocess报错,安装失败的问题:方法同上
cd ${DIR}

再次进入镜像

bash 复制代码
docker exec -it foundationpose bash

demo运行

准备工作

参考readme的Data prepare部分即可

运行python run_demo.py

结果视频跟robot_mustard.mp4 想同

存在问题及解决方法

问题1:运行python run_demo.py

报错:Segmentation fault (core dumped)

原因待查

相关推荐
无极低码7 小时前
ecGlypher新手安装分步指南(标准化流程)
人工智能·算法·自然语言处理·大模型·rag
华农DrLai13 小时前
什么是Prompt工程?为什么提示词的质量决定AI输出的好坏?
数据库·人工智能·gpt·大模型·nlp·prompt
cuguanren15 小时前
MuleRun vs OpenClaw vs 网页服务:云端安全与本地自由的取舍之道
安全·大模型·llm·agent·智能体·openclaw·mulerun
马克Markorg15 小时前
OpenClaw架构学习与思考
大模型·agent·openclaw·小龙虾
大数据AI人工智能培训专家培训讲师叶梓15 小时前
FaithLens:8B 参数大模型幻觉检测器,性能超 GPT-4.1 且低成本可解释
大模型·llm·大模型幻觉·人工智能讲师·大模型讲师·大模型培训·llm幻觉
前进的李工17 小时前
LangChain使用之Model IO(提示词模版之ChatPromptTemplate)
java·前端·人工智能·python·langchain·大模型
大模型RAG和Agent技术实践18 小时前
破译Word文档的“语义黑盒”:企业级DOCX RAG架构演进与全链路实战(完整源代码)
人工智能·架构·大模型·word·智能问答·rag
CoderJia程序员甲19 小时前
GitHub 热榜项目 - 日榜(2026-03-19)
人工智能·ai·大模型·github·ai教程
人工智能培训咨询叶梓20 小时前
SYNCHECK:提升检索增强型语言模型的可信度
人工智能·深度学习·语言模型·大模型·检索增强·多模态·rag
小田学Python1 天前
简明教程:实现OpenCLaw轻量级应用服务器部署及Ollama大模型本地化
ai·大模型·ollama·openclaw