gpu算力

九章云极AladdinEdu4 天前
人工智能·深度学习·opencv·机器学习·华为·数据挖掘·gpu算力
华为昇腾NPU与NVIDIA CUDA生态兼容层开发实录:手写算子自动转换工具链(AST级代码迁移方案)当国产AI芯片崛起遭遇生态壁垒,如何实现CUDA算子到昇腾平台的无损迁移成为关键挑战。本文首次公开基于抽象语法树(AST)的自动转换工具链设计,实现90%以上算子的零人工迁移。
科智咨询5 天前
运维·服务器·gpu算力
双轮驱动:政策激励与外部制约下的国产服务器市场演进2022年10月,美国首次将A100和H100等高端GPU列入对华出口管制清单,标志着对中国服务器芯片的针对性限制正式拉开序幕。与此同时,国内相关支持政策持续落地,从“国产替代”专项资金到鼓励核心器件国产化的税收优惠,多重激励共同塑造了国产服务器产业迅速崛起的政策环境。
九章云极AladdinEdu5 天前
人工智能·pytorch·深度学习·机器学习·自然语言处理·架构·gpu算力
冷冻电镜重构的GPU加速破局:从Relion到CryoSPARC的并行重构算法随着单粒子冷冻电镜(cryo-EM)分辨率突破原子级别(<3Å),重构算法计算复杂度呈指数级增长。传统CPU集群处理百万级粒子数据集需数周时间,成为结构生物学研究的关键瓶颈。本文重点分析Relion和CryoSPARC两大主流软件在GPU并行化方面的技术路线差异,并探讨多GPU非均匀傅里叶变换(NUFFT)的通信优化方案。
刘阿宾6 天前
服务器·华为·语言模型·gpu算力·kylin
【华为昇腾|CUDA】服务器A6000显卡部署LLM实战记录ollama官方提供aarch64 docker,按照https://hub.docker.com/r/ollama/ollama文档操作即可
成都极云科技6 天前
大数据·服务器·人工智能·云计算·gpu算力
成都算力租赁新趋势:H20 八卡服务器如何重塑 AI 产业格局?在当今数字化浪潮中,成都正积极投身于算力租赁领域,而 H20 八卡服务器作为其中的佼佼者,正引领着一场关于 AI 产业格局的深刻变革。本文将深入探讨这一新趋势及其对整个 AI 产业的深远影响。
指月小筑9 天前
人工智能·云原生·容器·kubernetes·开源·gpu算力
开源 vGPU 方案 HAMi: core&memory 隔离测试本文主要对开源的 vGPU 方案 HAMi 的 GPU Core&Memory 隔离功能进行测试。省流:
笑稀了的野生俊8 天前
linux·服务器·python·bash·gpu算力
在服务器中下载 HuggingFace 模型:终极指南在使用 Hugging Face 上的模型时,我们经常需要将模型下载到服务器上,尤其是在 GPU 服务器或集群中部署深度学习任务时。本文将详细介绍如何使用 huggingface_hub 工具在服务器中高效、安全地下载 Hugging Face 模型,包括命令行工具的安装、登录认证、下载命令的使用方式,以及常见问题说明和优化建议。
小眼睛FPGA8 天前
科技·嵌入式硬件·ai·fpga开发·gpu算力
【RK3568+PG2L50H开发板实验例程】FPGA部分/紫光同创 IP core 的使用及添加本原创文章由深圳市小眼睛科技有限公司创作,版权归本公司所有,如需转载,需授权并注明出处(www.meyesemi.com)
小眼睛FPGA10 天前
linux·运维·科技·ai·fpga开发·gpu算力
【RK3568+PG2L50H开发板实验例程】Linux部分/FPGA dma_memcpy_demo 读写案例本原创文章由深圳市小眼睛科技有限公司创作,版权归本公司所有,如需转载,需授权并注明出处(www.meyesemi.com)
成都极云科技20 天前
运维·服务器·人工智能·云计算·gpu算力
如何选择适合的服务器托管方案以优化网站性能:提升速度与稳定性的关键决策在当今竞争激烈的线上环境中,网站性能直接决定了用户体验与业务成败。当页面加载时间超过3秒,超过一半的用户会选择离开。服务器托管作为网站运行的物理基石,其方案选择对性能有着决定性影响。那么,如何挑选最适合的服务器托管方案来最大化您的网站表现?
1213421 天前
gpt·aigc·ai编程·llama·gpu算力
LLM:重构数字世界的“智能操作系统”当我们谈论「计算机」时,脑海中浮现的往往是屏幕、键盘与芯片的组合。但从GPT-3.5到GPT-4,从Llama到Claude,大语言模型(LLM)的爆发式发展正在颠覆这一认知——它们不再是简单的「工具」或「算法」,而是一种全新的「计算机形态」。这种新型计算机以语言为接口,以智能为算力,以生态为延伸,正在重新定义计算的边界。
小猴崽23 天前
深度学习·gpu算力·解决方案
基于腾讯云GPU服务器的深度学习训练技术指南本文针对深度学习训练场景,系统解析技术核心价值与实施路径,结合腾讯云GPU服务器产品特性,提供从环境搭建到性能优化的完整解决方案。通过对比实验验证,采用腾讯云方案可使训练效率提升180%,成本降低40%(数据来源:IDC 2024中国AI基础设施白皮书)。
NEKGod25 天前
centos·gpu算力
centos9安装显卡驱动确认显卡型号 打开终端,运行以下命令检查你的 NVIDIA 显卡型号:或:输出将显示你的显卡型号(如 GeForce GTX 1070 或 Quadro K5000M)。
Prokint.1 个月前
人工智能·游戏·云计算·gpu算力
GPU算力租用平台推荐(AI/游戏串流/渲染/办公)在 AI 与深度学习飞速迭代的当下,GPU 算力租用平台已成为科研人员、开发者及企业的 “数字生产力引擎”。这类平台打破硬件资源的桎梏,以灵活调配、高效运算、无限扩展的特性,加速模型训练、推理及高性能计算等核心任务。以下精选几个主流平台,从技术实力、应用场景等维度深入剖析,为您提供专业的选择指南。
舰长1151 个月前
gpu算力
GPU显存的作用和如何选择首先,显存的全称是显示内存,英文是Video RAM或VRAM,是显卡上的专用内存。显存的主要作用是用来存储图形处理单元(GPU)需要处理的数据,比如纹理、顶点数据、帧缓冲区等。
霖001 个月前
人工智能·vscode·python·fpga开发·mvc·gpu算力
详解GPUGPU(图形处理器)就像电脑里的 “图形小能手”,原本主要用来画画(渲染图形),现在还能帮忙干很多杂活(并行计算)
摩尔线程2 个月前
算法·语言模型·大模型·gpu算力·gpu·摩尔线程
推测解码算法在 MTT GPU 的应用实践目前主流的大模型自回归解码每一步都只生成一个token, 尽管kv cache等技术可以提升解码的效率,但是单个样本的解码速度依然受限于访存瓶颈,即模型需要频繁从内存中读取和写入数据,此时GPU的利用率有限。为了解决这种问题,VLLM框架中提出的continues batching的推理方式则是充分利用批量推理来缓解或避免访存瓶颈,极大的提升了推理系统的吞吐量。不同于VLLM等框架在系统层面的加速优化,本文所想要介绍的推测解码(speculative decoding)技术则是聚焦于算法层面的加速优化,其
乌旭2 个月前
算法·架构·开源·去中心化·智能合约·gpu算力·risc-v
天文数据处理:基于CUDA的射电望远镜图像实时去噪算法(开源FAST望远镜数据处理代码解析)作为全球最大的单口径射电望远镜,中国天眼(FAST)每秒产生38GB原始观测数据,经预处理后生成数千万张图像。这些数据中蕴含的脉冲星、中性氢等天体信号常被高斯白噪声、射频干扰(RFI)和仪器噪声所淹没。传统CPU处理方案面临三大核心挑战:
kailp2 个月前
人工智能·深度学习·3d·渲染·gpu算力
云渲染技术解析与渲酷平台深度测评:如何实现高效3D创作?云渲染的本质是通过多节点并行计算实现效率突破。以动画渲染为例,一个30秒的动画通常包含720帧(按24帧/秒计算),传统单机需要连续处理所有帧,而云渲染可将任务拆解为720个子任务,由集群中不同节点同步执行。这种模式使得原本需要10小时的渲染任务,在100个节点下仅需6分钟即可完成。
九章云极AladdinEdu2 个月前
人工智能·pytorch·python·深度学习·机器学习·transformer·gpu算力
深度学习框架显存泄漏诊断手册(基于PyTorch的Memory Snapshot对比分析方法)在深度学习模型的训练与推理过程中,显存泄漏(GPU Memory Leak)是开发者最常遭遇的"隐形杀手"之一。不同于传统内存泄漏的即时可见性,显存泄漏往往在长时间运行的训练任务中逐步积累,最终导致CUDA Out of Memory错误。这种现象在以下场景尤为突出: