2025计算机视觉新技术


  1. CLIP / BLIP-3 类「视觉-语言大模型」

    • 是什么:让网络自己学会"看图说话",zero-shot 就能分类、检测、检索。

    • 能干什么:不写训练代码,直接一句中文 prompt 就把商品图分成 500 类。

    • 落地难度:★☆☆(pip install open_clip_torch,CPU 也能跑)

    • 入口:https://github.com/mlfoundations/open_clip

  2. Segment Anything Model 2 (SAM-2)

    • 是什么:Meta 刚开源的"万能分割",视频里点一下即可追踪目标。

    • 能干什么:直播换背景、工业缺陷区域一键抠出,不用逐帧标注。

    • 落地难度:★☆☆(PyTorch 权重直接推理,1080Ti 可跑 720p)

    • 入口:https://github.com/facebookresearch/segment-anything-2

  3. YOLO-World / YOLOv9-Universal「开放词汇检测」

    • 是什么:YOLO 也能 zero-shot,输入"红色安全帽"就能检测没见过的东西。

    • 能干什么:工地摄像头今天想查"未戴绝缘手套",改行文本即可,不用重训。

    • 落地难度:★★☆(需 GPU 转 ONNX,边缘用 RKNN 量化)

    • 入口:https://github.com/AILab-CVC/YOLO-World

  4. 自监督 + 少样本工业缺陷检测(Diffusion + Memory Bank)

    • 是什么:用 5 张 OK 图就能学出"异常",无需缺陷样本。

    • 能干什么:手机背板划痕、布料脏点实时检,省掉千级人工标注。

    • 落地难度:★★☆(开源模型 + 10 行微调代码)

    • 入口:https://github.com/openvinotoolkit/anomalib

  5. 单目深度估计「Depth Anything V2」

    • 是什么:一张普通照片就生成 0-10 m 稠密深度图,误差 < 5%。

    • 能干什么:给 AR 导览、机器人避障当"廉价 LiDAR",成本 0 元。

    • 落地难度:★☆☆(pip install depth-anything,ONNX 仅 30 MB)

    • 入口:https://github.com/DepthAnything/Depth-Anything-V2

  6. 高光谱「伪」实时分析(RGB → 512-band 重建)

    • 是什么:AI 把普通相机 RGB 插值成 512 波段"超光谱",能看水分、糖分、药残。

    • 能干什么:果园无人机飞一圈,立刻出"糖度分布热图",无需 30 万高光谱相机。

    • 落地难度:★★★(需标定一次+GPU 推理,但硬件 0 额外成本)

    • 入口:https://github.com/StaRainJ/HyperRecon


好!

相关推荐
薛定谔的猫19823 分钟前
二十一、基于 Hugging Face Transformers 实现中文情感分析情感分析
人工智能·自然语言处理·大模型 训练 调优
发哥来了10 分钟前
《AI视频生成技术原理剖析及金管道·图生视频的应用实践》
人工智能
数智联AI团队22 分钟前
AI搜索引领开源大模型新浪潮,技术创新重塑信息检索未来格局
人工智能·开源
不懒不懒35 分钟前
【线性 VS 逻辑回归:一篇讲透两种核心回归模型】
人工智能·机器学习
冰西瓜6001 小时前
从项目入手机器学习——(四)特征工程(简单特征探索)
人工智能·机器学习
Ryan老房1 小时前
未来已来-AI标注工具的下一个10年
人工智能·yolo·目标检测·ai
丝斯20112 小时前
AI学习笔记整理(66)——多模态大模型MOE-LLAVA
人工智能·笔记·学习
小鸡吃米…2 小时前
机器学习中的代价函数
人工智能·python·机器学习
HaiLang_IT2 小时前
计算机视觉选题指南(2026版):图像分类、目标检测、分割等热门方向详解
计算机视觉·分类·课程设计
chatexcel3 小时前
元空AI+Clawdbot:7×24 AI办公智能体新形态详解(长期上下文/自动化任务/工具粘合)
运维·人工智能·自动化