gpu算力

weixin_307779131 天前
c++·算法·华为·系统架构·gpu算力
设计Mock华为昇腾GPU的MindSpore和CANN的库的流程与实现在没有华为昇腾GPU可用的情况下用C++库写一个Mock MindSpore和CANN的库,调用多核CPU和内存的资源来模拟GPU的算力,调试MindSpore和CANN的C++代码,做这个库的基本流程步骤和详细设计是什么?
努力一点9481 天前
linux·运维·服务器·人工智能·gpu算力
ubuntu22.04系统入门 linux入门(二) 简单命令 多实践以及相关文件管理命令以下有免费的4090云主机提供ubuntu22.04系统的其他入门实践操作地址:星宇科技 | GPU服务器 高性能云主机 云服务器-登录
weixin_307779132 天前
c++·算法·gpu算力
设计Mock CUDA库的流程与实现在没有英伟达GPU可用的情况下用C++库写一个Mock CUDA的库,调用多核CPU和内存的资源来模拟GPU的算力,调试CUDA的C++代码,做这个库的基本流程步骤和详细设计是什么?
努力一点9483 天前
linux·运维·服务器·ubuntu·gpu算力
ubuntu22.04系统入门 linux入门 简单命令基础复习 实现以及实践以下有免费的4090云主机提供ubuntu22.04系统的其他入门实践操作地址:星宇科技 | GPU服务器 高性能云主机 云服务器-登录
九章云极AladdinEdu8 天前
人工智能·pytorch·opencv·机器学习·github·gpu算力
GitHub新手生存指南:AI项目版本控制与协作实战代码仓库创建 × 分支管理 × PR提交 × 开源项目复现 读者收获:掌握团队开发必备技能,建立技术履历
努力一点9489 天前
linux·运维·服务器·ubuntu·ai·gpu算力
linux系统底层逻辑 开机顺序 ubuntu22.04系统以下有免费的4090云主机提供ubuntu22.04系统的其他入门实践操作地址:星宇科技 | GPU服务器 高性能云主机 云服务器-登录
努力一点94812 天前
linux·运维·服务器·nginx·ubuntu·云原生·gpu算力
在 Ubuntu 22.04 上安装并优化 Nginx nginx入门操作 稍难,需要有一定理论 多理解 多实践以下有免费的4090云主机提供ubuntu22.04系统的其他入门实践操作地址:星宇科技 | GPU服务器 高性能云主机 云服务器-登录
努力一点94813 天前
linux·运维·服务器·人工智能·docker·容器·gpu算力
buntu 22.04 上离线安装Docker 25.0.5(二)以下有免费的4090云主机提供ubuntu22.04系统的其他入门实践操作地址:星宇科技 | GPU服务器 高性能云主机 云服务器-登录
H3C-Navigator19 天前
网络·人工智能·gpu算力·ai-native
【AI高性能网络解析】第一期:面向GPU算力纵向扩展的Scale-up网络技术研究摘要 Scale-up网络是算力资源纵向扩展网络,用于提供高带宽、低时延与高可靠的GPU互联网络,压缩GPU之间的通信开销,提高算力资源利用率。本文分析了Scale-up网络的技术要求,指出当前RoCE v2与PCIe都不能完全满足Scale-up网络的技术要求,需要从物理层、链路层及事务层等各个层面做优化。系统梳理了Scale-up网络国内外最新的标准化进展,并对未来Scale-up网络趋势做出预判。 关键词 智算网络;并行计算;纵向扩展;大模型;内存语义;计算-通信融合
kailp19 天前
人工智能·3d·ai·语言模型·llama·gpu算力
语言模型玩转3D生成:LLaMA-Mesh开源项目LLaMA-Mesh 是一个创新项目,旨在利用大型语言模型(LLM)的能力,实现文本描述到 3D 网格模型的统一生成。该项目将自然语言处理与 3D 几何建模相结合,其核心功能和特点如下:
九章云极AladdinEdu20 天前
人工智能·pytorch·深度学习·机器学习·语言模型·tensorflow·gpu算力
摩尔线程MUSA架构深度调优指南:从CUDA到MUSA的显存访问模式重构原则当国产GPU面临生态壁垒,显存访问效率成为性能突破的关键战场。本文将深入揭示摩尔线程MUSA架构的显存子系统特性,并提出从CUDA到MUSA的显存访问重构四阶法则,助你解锁90%硬件潜能。
九章云极AladdinEdu24 天前
人工智能·深度学习·opencv·机器学习·华为·数据挖掘·gpu算力
华为昇腾NPU与NVIDIA CUDA生态兼容层开发实录:手写算子自动转换工具链(AST级代码迁移方案)当国产AI芯片崛起遭遇生态壁垒,如何实现CUDA算子到昇腾平台的无损迁移成为关键挑战。本文首次公开基于抽象语法树(AST)的自动转换工具链设计,实现90%以上算子的零人工迁移。
科智咨询25 天前
运维·服务器·gpu算力
双轮驱动:政策激励与外部制约下的国产服务器市场演进2022年10月,美国首次将A100和H100等高端GPU列入对华出口管制清单,标志着对中国服务器芯片的针对性限制正式拉开序幕。与此同时,国内相关支持政策持续落地,从“国产替代”专项资金到鼓励核心器件国产化的税收优惠,多重激励共同塑造了国产服务器产业迅速崛起的政策环境。
九章云极AladdinEdu25 天前
人工智能·pytorch·深度学习·机器学习·自然语言处理·架构·gpu算力
冷冻电镜重构的GPU加速破局:从Relion到CryoSPARC的并行重构算法随着单粒子冷冻电镜(cryo-EM)分辨率突破原子级别(<3Å),重构算法计算复杂度呈指数级增长。传统CPU集群处理百万级粒子数据集需数周时间,成为结构生物学研究的关键瓶颈。本文重点分析Relion和CryoSPARC两大主流软件在GPU并行化方面的技术路线差异,并探讨多GPU非均匀傅里叶变换(NUFFT)的通信优化方案。
刘阿宾1 个月前
服务器·华为·语言模型·gpu算力·kylin
【华为昇腾|CUDA】服务器A6000显卡部署LLM实战记录ollama官方提供aarch64 docker,按照https://hub.docker.com/r/ollama/ollama文档操作即可
成都极云科技1 个月前
大数据·服务器·人工智能·云计算·gpu算力
成都算力租赁新趋势:H20 八卡服务器如何重塑 AI 产业格局?在当今数字化浪潮中,成都正积极投身于算力租赁领域,而 H20 八卡服务器作为其中的佼佼者,正引领着一场关于 AI 产业格局的深刻变革。本文将深入探讨这一新趋势及其对整个 AI 产业的深远影响。
指月小筑1 个月前
人工智能·云原生·容器·kubernetes·开源·gpu算力
开源 vGPU 方案 HAMi: core&memory 隔离测试本文主要对开源的 vGPU 方案 HAMi 的 GPU Core&Memory 隔离功能进行测试。省流:
笑稀了的野生俊1 个月前
linux·服务器·python·bash·gpu算力
在服务器中下载 HuggingFace 模型:终极指南在使用 Hugging Face 上的模型时,我们经常需要将模型下载到服务器上,尤其是在 GPU 服务器或集群中部署深度学习任务时。本文将详细介绍如何使用 huggingface_hub 工具在服务器中高效、安全地下载 Hugging Face 模型,包括命令行工具的安装、登录认证、下载命令的使用方式,以及常见问题说明和优化建议。
小眼睛FPGA1 个月前
科技·嵌入式硬件·ai·fpga开发·gpu算力
【RK3568+PG2L50H开发板实验例程】FPGA部分/紫光同创 IP core 的使用及添加本原创文章由深圳市小眼睛科技有限公司创作,版权归本公司所有,如需转载,需授权并注明出处(www.meyesemi.com)
小眼睛FPGA1 个月前
linux·运维·科技·ai·fpga开发·gpu算力
【RK3568+PG2L50H开发板实验例程】Linux部分/FPGA dma_memcpy_demo 读写案例本原创文章由深圳市小眼睛科技有限公司创作,版权归本公司所有,如需转载,需授权并注明出处(www.meyesemi.com)