机器学习

普通网友1 分钟前
人工智能·机器学习·bard
Bard 的模型压缩技术:在保证性能的前提下如何实现轻量化部署大型语言模型如Bard(基于类似PaLM的架构)通常参数量庞大(数十亿至数万亿),这导致部署时面临高计算资源消耗、高内存占用和低推理速度的挑战。轻量化部署的目标是:在保持模型性能(如准确率、响应质量)的同时,显著减小模型大小和计算开销,适用于移动端、边缘设备或实时应用。核心思路是通过模型压缩技术减少冗余参数,而不牺牲关键能力。以下我将逐步介绍关键压缩技术,并解释如何应用于Bard模型,确保性能稳定。
捕风捉你22 分钟前
人工智能·深度学习·机器学习
【AI转行04】特征工程:治疗 AI 的“学不会”和“想太多”写在前面: 在 AI 训练中,我们最怕遇到两种病:这一章,我们不讲复杂的数学,只讲怎么通过**调整数据(特征工程)和约束模型(正则化)**来治好这两块心病。
2501_941878743 小时前
人工智能·机器学习
在班加罗尔工程实践中构建可持续演进的机器学习平台体系与技术实现分享在印度班加罗尔这一全球知名的软件与工程中心部署机器学习相关系统时,我们遇到的最大挑战并不是模型效果,而是模型如何长期、稳定、可控地运行在真实业务中。算法可以不断更新,但系统不能频繁重构;模型可以不断迭代,但线上服务必须保持稳定。这促使我们从一开始就以“平台化”的思维来建设机器学习能力。
byzh_rc4 小时前
人工智能·机器学习·最小二乘法
[机器学习-从入门到入土] 拓展-最小二乘法知乎:https://www.zhihu.com/people/byzh_rcCSDN:https://blog.csdn.net/qq_54636039
高洁014 小时前
人工智能·深度学习·机器学习·transformer·知识图谱
10分钟了解向量数据库(310分钟了解向量数据库(3)3 向量检索算法#人工智能#具身智能#VLA#大模型
tongxianchao5 小时前
算法·机器学习·剪枝
MetaPruning: Meta Learning for Automatic Neural Network Channel Pruning在本文中,我们提出了一种新颖的元学习(Meta Learning)方法,用于极深神经网络的自动通道剪枝 。我们首先训练一个 PruningNet(一种元网络),它能够为给定的目标网络生成任意剪枝结构的权重参数 。我们使用一种简单的随机结构采样方法来训练 PruningNet 。然后,我们应用进化过程来搜索性能良好的剪枝网络 。由于权重是由训练好的 PruningNet 直接生成的,且我们在搜索时不需要任何微调,因此搜索非常高效 。利用针对目标网络训练的单个 PruningNet,我们可以在极少人工参与的情
2301_800256115 小时前
人工智能·算法·机器学习
【数据库pgsql】车辆轨迹分析视图的创建和查询代码解析这段代码包含两部分:1) 创建一个视图,2) 查询该视图。这是车辆轨迹分析的代码。让我逐行详细解释:创建一个名为 CurrentTrack 的视图
byzh_rc6 小时前
人工智能·机器学习
[机器学习-从入门到入土] 拓展-范数知乎:https://www.zhihu.com/people/byzh_rcCSDN:https://blog.csdn.net/qq_54636039
一招定胜负6 小时前
人工智能·深度学习·机器学习
自然语言处理CBOW模型:基于上下文预测中间词今天我们进行自然语言处理(NLP)的学习。基于上下文预测中间词的CBOW模型——它是Word2Vec的核心模型之一,也是理解“词嵌入”思想的关键。博文分为三个部分:名词补充介绍,CBOW原理讲解,代码实现CBOW。
华如锦6 小时前
java·开发语言·人工智能·python·机器学习·spring cloud·计算机视觉
四:从零搭建一个RAG检索增强生成(RAG)是一种结合信息检索与生成式AI的混合技术,通过以下流程提升大模型输出质量:RAG的优势在于:
sonadorje7 小时前
算法·机器学习
梯度下降法的迭代步骤这张图其实把**梯度下降(Gradient Descent)**的训练过程画成了一个“循环流水线”,核心就是:用当前参数做预测 → 算误差(loss)→ 计算往哪边改参数会让误差变小 → 小步更新参数 → 重复。
wyw00007 小时前
机器学习
模型蒸馏(知识蒸馏)完整实操步骤 & 落地指南模型蒸馏(知识蒸馏)完整实操步骤 & 落地指南模型蒸馏(Knowledge Distillation, KD)是模型压缩核心技术,核心思想是:将大模型(教师模型,Teacher) 学到的「海量知识」,迁移提炼到小模型(学生模型,Student) 中,让轻量化的小模型复刻大模型的推理效果,实现 「小模型性能≈大模型,推理速度 / 显存占用大幅优化」。 ✔️ 教师模型:精度高、参数量大、推理慢(如 ResNet152、LLaMA-7B、预训练大模型); ✔️ 学生模型:精度低、参数量小、推理快(如 Mobil
老吴学AI8 小时前
人工智能·深度学习·机器学习·vibe coding
斯坦福AI顶级课程:AI 职业发展建议与市场展望(详细逐字稿)by 吴恩达和劳伦斯这是斯坦福大学的一堂CS230 Deep Learning课程中的一节课,AI领域的泰斗吴恩达(Andrew Ng)和资深行业专家劳伦斯·莫罗尼(Lawrence Moroni)分享了他们对当前行业格局的深刻见解,并就AI 职业发展建议与市场展望给出了大佬的观点。
坠金8 小时前
人工智能·机器学习
方差、偏差偏差(Bias):模型预测值与真实值之间的系统性误差,反映模型的学习能力方差(Variance):模型对训练数据微小变化的敏感度,反映模型的稳定性
奋斗者1号9 小时前
开发语言·机器学习·网络安全
MQTT连接失败定位步骤网络可达性与端口连通性验证系统时间精准校准抓包分析MQTT/TLS版本(修正原抓包指令)OpenSSL库版本与功能验证
能源系统预测和优化研究9 小时前
深度学习·随机森林·机器学习
传统机器学习(如xgboost、随机森林等)和深度学习(如LSTM等)在时间序列预测各有什么优缺点?传统机器学习方法(如XGBoost、随机森林)在时间序列预测中通常需要将时间序列数据转换为监督学习格式。这类方法的优势在于训练速度快、可解释性强,并且在中小规模数据集上往往表现稳健。此外,它们对超参数的敏感度相对较低,调参成本较小。然而,其缺点在于难以自动捕捉长期依赖关系和复杂的时序动态模式,特征工程的质量极大影响模型性能,且无法像深度学习那样端到端地学习时间结构。
owlion9 小时前
人工智能·python·机器学习·语言模型·自然语言处理
如何将视频文案整理成学习笔记在上一篇文章《基于开源软件本地搭建视频语音转文字》中,实现了在本地通过 FFmpeg + Whisper 的技术方案将视频中的语音提取出来形成文字。但生成的文字内容口语化比较严重,所以想通过大语言模型将这些冗长的文字内容整理成学习笔记,便于保存和回顾。
byzh_rc9 小时前
人工智能·机器学习
[机器学习-从入门到入土] 基础知识知乎:https://www.zhihu.com/people/byzh_rcCSDN:https://blog.csdn.net/qq_54636039
Chris_121910 小时前
人工智能·笔记·python·学习·机器学习·halcon
Halcon学习笔记-Day5fill_up_shape算子是Halcon中用于填充指定特征孔洞的强大工具,它在fill_up的基础上增加了特征筛选功能,使得孔洞填充更加精确和可控[1]。
dhdjjsjs11 小时前
开发语言·python·机器学习
Day58 PythonStudy@浙大疏锦行