FoundationPose 4090部署 真实场景迁移

参考链接:
github代码
4090部署镜像拉取

前期准备

搜狗输入法安装
4090双屏不ok:最后发现是hdmi线坏了。。。。

demo 复现

环境部署(docker本地化部署)

拉取镜像

bash 复制代码
docker pull shingarey/foundationpose_custom_cuda121:latest

修改run_container.sh如下,并`bash docker/run_container.sh

bash 复制代码
docker rm -f foundationpose_cuda121
DIR=$(pwd)/../
xhost +  && docker run --gpus all --env NVIDIA_DISABLE_REQUIRE=1 -it --network=host --name foundationpose_cuda121  --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v $DIR:$DIR -v FoundationPose所在目录:/usr/ -v /mnt:/mnt -v /tmp/.X11-unix:/tmp/.X11-unix -v /tmp:/tmp  --ipc=host -e DISPLAY=${DISPLAY} -e GIT_INDEX_FILE shingarey/foundationpose_custom_cuda121:latest(拉取的4090镜像) bash

执行`bash build_all.sh,详细说明此处执行的操作,以及相应注意事项

bash 复制代码
DIR=$(pwd)

cd $DIR/mycpp/ && mkdir -p build && cd build && cmake .. -DPYTHON_EXECUTABLE=$(which python) && make -j11
木得问题,顺利通过

cd /kaolin && rm -rf build *egg* && pip install -e .
(1)rm -rf build *egg*不能将.egg删掉,我手动删除的,不知道此处.egg要不要删除,删除没有报错就是了
(2)此处pip install -e .的时候会出现subprocess报错,安装失败的问题,排查发现是下载源的问题:
切换清华源:
临时:pip install -e . -i https://pypi.tuna.tsinghua.edu.cn/simple
永久:写到配置文件里面
配置文件的可能位置:
用户级配置
~/.pip/pip.conf 或 ~/.config/pip/pip.conf
系统级配置
/etc/pip.conf
查看当前生效的配置文件路径:pip config -v list
切换精华源:
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
pip config set install.trusted-host pypi.tuna.tsinghua.edu.cn 
恢复默认配置:
pip config unset global.index-url
pip config unset install.trusted-host
验证修改是否生效:
pip config list

cd $DIR/bundlesdf/mycuda && rm -rf build *egg* && pip install -e .
(1)update the compiler flags in bundlesdf/mycuda/setup.py from c++14 to c++17:
nvcc_flags = ['-Xcompiler', '-O3', '-std=c++17', '-U__CUDA_NO_HALF_OPERATORS__', '-U__CUDA_NO_HALF_CONVERSIONS__', '-U__CUDA_NO_HALF2_OPERATORS__']
c_flags = ['-O3', '-std=c++17']
(2)此处pip install -e .的时候会出现subprocess报错,安装失败的问题:方法同上
cd ${DIR}

再次进入镜像

bash 复制代码
docker exec -it foundationpose bash

demo运行

准备工作

参考readme的Data prepare部分即可

运行python run_demo.py

结果视频跟robot_mustard.mp4 想同

存在问题及解决方法

问题1:运行python run_demo.py

报错:Segmentation fault (core dumped)

原因待查

相关推荐
ModelWhale17 小时前
“大模型”技术专栏 | 浅谈基于 Kubernetes 的 LLM 分布式推理框架架构:概览
分布式·kubernetes·大模型
charlee441 天前
在本地部署Qwen大语言模型全过程总结
大模型·cuda·qwen·量化
SuperherRo1 天前
Web攻防-大模型应用&LLM安全&提示词注入&不安全输出&代码注入&直接间接&数据投毒
大模型·llm·提示词注入·不安全输出·直接·间接
努力还债的学术吗喽2 天前
2020 GPT3 原文 Language Models are Few-Shot Learners 精选注解
gpt·大模型·llm·gpt-3·大语言模型·few-shot·zero-shot
精致先生2 天前
Streamlit实现Qwen对话机器人
python·机器人·大模型·streamlit
ai绘画-安安妮2 天前
零基础学LangChain:核心概念与基础组件解析
人工智能·学习·ai·程序员·langchain·大模型·转行
没事学AI4 天前
移动端调用大模型详解
ios·大模型·安卓
Jeremy_lf4 天前
阿里巴巴开源多模态大模型-Qwen-VL系列论文精读(一)
大模型·qwen·多模态大模型·mllm
陈敬雷-充电了么-CEO兼CTO5 天前
OpenAI开源大模型 GPT-OSS 开放权重语言模型解析:技术特性、部署应用及产业影响
人工智能·gpt·ai·语言模型·自然语言处理·chatgpt·大模型