FoundationPose 4090部署 真实场景迁移

参考链接:
github代码
4090部署镜像拉取

前期准备

搜狗输入法安装
4090双屏不ok:最后发现是hdmi线坏了。。。。

demo 复现

环境部署(docker本地化部署)

拉取镜像

bash 复制代码
docker pull shingarey/foundationpose_custom_cuda121:latest

修改run_container.sh如下,并`bash docker/run_container.sh

bash 复制代码
docker rm -f foundationpose_cuda121
DIR=$(pwd)/../
xhost +  && docker run --gpus all --env NVIDIA_DISABLE_REQUIRE=1 -it --network=host --name foundationpose_cuda121  --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v $DIR:$DIR -v FoundationPose所在目录:/usr/ -v /mnt:/mnt -v /tmp/.X11-unix:/tmp/.X11-unix -v /tmp:/tmp  --ipc=host -e DISPLAY=${DISPLAY} -e GIT_INDEX_FILE shingarey/foundationpose_custom_cuda121:latest(拉取的4090镜像) bash

执行`bash build_all.sh,详细说明此处执行的操作,以及相应注意事项

bash 复制代码
DIR=$(pwd)

cd $DIR/mycpp/ && mkdir -p build && cd build && cmake .. -DPYTHON_EXECUTABLE=$(which python) && make -j11
木得问题,顺利通过

cd /kaolin && rm -rf build *egg* && pip install -e .
(1)rm -rf build *egg*不能将.egg删掉,我手动删除的,不知道此处.egg要不要删除,删除没有报错就是了
(2)此处pip install -e .的时候会出现subprocess报错,安装失败的问题,排查发现是下载源的问题:
切换清华源:
临时:pip install -e . -i https://pypi.tuna.tsinghua.edu.cn/simple
永久:写到配置文件里面
配置文件的可能位置:
用户级配置
~/.pip/pip.conf 或 ~/.config/pip/pip.conf
系统级配置
/etc/pip.conf
查看当前生效的配置文件路径:pip config -v list
切换精华源:
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
pip config set install.trusted-host pypi.tuna.tsinghua.edu.cn 
恢复默认配置:
pip config unset global.index-url
pip config unset install.trusted-host
验证修改是否生效:
pip config list

cd $DIR/bundlesdf/mycuda && rm -rf build *egg* && pip install -e .
(1)update the compiler flags in bundlesdf/mycuda/setup.py from c++14 to c++17:
nvcc_flags = ['-Xcompiler', '-O3', '-std=c++17', '-U__CUDA_NO_HALF_OPERATORS__', '-U__CUDA_NO_HALF_CONVERSIONS__', '-U__CUDA_NO_HALF2_OPERATORS__']
c_flags = ['-O3', '-std=c++17']
(2)此处pip install -e .的时候会出现subprocess报错,安装失败的问题:方法同上
cd ${DIR}

再次进入镜像

bash 复制代码
docker exec -it foundationpose bash

demo运行

准备工作

参考readme的Data prepare部分即可

运行python run_demo.py

结果视频跟robot_mustard.mp4 想同

存在问题及解决方法

问题1:运行python run_demo.py

报错:Segmentation fault (core dumped)

原因待查

相关推荐
concisedistinct8 小时前
如何评价大语言模型架构 TTT ?模型应不应该永远“固定”在推理阶段?模型是否应当在使用时继续学习?
人工智能·语言模型·大模型
Silence4Allen17 小时前
RagFlow 完全指南(一):从零搭建开源大模型应用平台(Ollama、VLLM本地模型接入实战)
人工智能·大模型·rag·ragflow
青花瓷20 小时前
llama-Factory不宜直接挂接Ollama的大模型
人工智能·大模型·agent·llama·智能体
想要成为计算机高手1 天前
Helix:一种用于通用人形控制的视觉语言行动模型
人工智能·计算机视觉·自然语言处理·大模型·vla
水煮蛋不加蛋2 天前
AutoGen 框架解析:微软开源的多人 Agent 协作新范式
人工智能·microsoft·ai·开源·大模型·llm·agent
Silence4Allen2 天前
大模型微调终极方案:LoRA、QLoRA原理详解与LLaMA-Factory、Xtuner实战对比
人工智能·大模型·微调·xtuner·llamafactory
誉鏐2 天前
为什么Transformer推理需要做KV缓存
人工智能·深度学习·大模型·transformer
白熊1882 天前
【大模型】使用 LLaMA-Factory 进行大模型微调:从入门到精通
人工智能·大模型·llama
坐吃山猪2 天前
大模型深度思考与ReAct思维方式对比
大模型
枫夜求索阁2 天前
大模型文件类型揭秘:从基础到面试挑战
人工智能·面试·职场和发展·大模型