技术栈
神经网络
文火冰糖的硅基工坊
7 小时前
人工智能
·
深度学习
·
神经网络
·
架构
·
信号处理
·
跨学科融合
[人工智能-综述-17]:AI革命:重塑职业版图,开启文明新篇
1.AI不仅仅冲击人数众多的、重点关注当下的、普通大众的日常工作。2.AI也冲击那些关注3年以内的技术实现的工程师们,包括创造和使用AI的工程师们自己。
金井PRATHAMA
7 小时前
人工智能
·
深度学习
·
神经网络
·
机器学习
·
自然语言处理
·
知识图谱
分布内侧内嗅皮层的层Ⅱ或层Ⅲ的网格细胞(grid cells)对NLP中的深层语义分析的积极影响和启示
网格细胞(Grid Cells)作为大脑内侧内嗅皮层(MEC)层Ⅱ和层Ⅲ的核心空间编码神经元,其独特的六边形放电模式和路径整合机制为自然语言处理(NLP)的深层语义分析提供了突破性的神经科学启示。以下结合其神经机制,分述对NLP的积极影响与技术实现方向:
大千AI助手
8 小时前
人工智能
·
神经网络
·
机器学习
·
语言模型
·
自然语言处理
·
mlm
·
掩码
掩码语言模型(MLM)技术解析:理论基础、演进脉络与应用创新
掩码语言模型(Masked Language Modeling, MLM)是一种自监督预训练目标,其核心思想是通过随机掩盖输入序列中的部分词汇,让模型基于上下文预测被掩盖的原始词汇,从而学习语言的深层双向表示。这一机制由Google AI团队在2018年提出的BERT(Bidirectional Encoder Representations from Transformers)模型中首次系统化实现并广泛应用,彻底改变了自然语言处理领域的预训练范式。
大千AI助手
17 小时前
人工智能
·
神经网络
·
算法
·
机器学习
·
dpo
·
大模型对齐
·
直接偏好优化
直接偏好优化(DPO):原理、演进与大模型对齐新范式
直接偏好优化(Direct Preference Optimization, DPO) 是由斯坦福大学与 CZ Biohub 研究团队于 2023 年提出的突破性方法,用于直接基于人类偏好数据微调大语言模型(LLMs),无需显式训练奖励模型或依赖强化学习(RL)。其核心思想是将模型自身隐式转化为奖励函数,通过数学变换将复杂的强化学习问题转化为简洁的监督学习目标,显著提升训练效率与稳定性。
ReinaXue
17 小时前
人工智能
·
神经网络
·
语言模型
·
transformer
·
语音识别
·
迁移学习
·
audiolm
大模型【进阶】(四)QWen模型架构的解读
Qwen(通义千问)是阿里巴巴云开发的大型语言模型(LLM)和多模态模型系列,旨在提供强大的自然语言理解、文本生成、图像理解、音频处理及工具使用能力。
shangyingying_1
20 小时前
神经网络
·
学习
·
cnn
关于神经网络CNN的搭建过程以及图像卷积的实现过程学习
通过如下博客内容学习了CNN搭建的步骤,按照博主的思路完成了cnn网络的构建并完成50个epoch的训练并画出损失函数的曲线图时有满满的成就感
walnut_oyb
1 天前
论文阅读
·
人工智能
·
神经网络
·
计算机视觉
·
分类
论文阅读|CVPR 2025|Mamba进一步研究|GroupMamba
论文地址:pdf 代码地址:code现有模型局限:基于 SSM 的视觉模型(如 Mamba、VMamba)在处理视觉任务时存在两大挑战:一是大模型训练不稳定(参数增多时性能下降);二是计算效率低(通道数增加会导致参数和计算成本激增),难以平衡性能与效率。
8Qi8
1 天前
人工智能
·
python
·
深度学习
·
神经网络
深度学习(鱼书)day06--神经网络的学习(后两节)
像 这样的由全部变量的偏导数汇总而成的向量称为梯度(gradient)。梯度实现的代码:这里我们求点(3,4)、(0,2)、(3,0)处的梯度。
偶尔贪玩的骑士
1 天前
人工智能
·
神经网络
·
cnn
Note3: CNN(卷积神经网络)
目录预备知识一. 从神经网络的角度理解CNNObservation1:pattern基于receptive field的优化
虾饺爱下棋
2 天前
人工智能
·
python
·
神经网络
·
算法
FCN语义分割算法原理与实战
本文若有舛误,尚祈诸君不吝斧正,感激不尽。前提概要:所使用的材料来源对应视频材料:FCN语义分割虽然可能比较简单但是奠定了使用卷积神经网络做语义分割任务的基础。
go5463158465
2 天前
图像处理
·
人工智能
·
深度学习
·
神经网络
·
算法
·
gru
·
lstm
基于LSTM和GRU的上海空气质量预测研究
前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家,觉得好请收藏。点击跳转到网站。
go5463158465
2 天前
人工智能
·
深度学习
·
神经网络
·
机器学习
·
生成对抗网络
·
矩阵
基于YOLOP与GAN的图像修复与防御系统设计与实现
前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家,觉得好请收藏。点击跳转到网站。
DAWN_T17
2 天前
网络
·
人工智能
·
pytorch
·
python
·
深度学习
·
神经网络
·
机器学习
关于网络模型的使用和修改/保存和读取
目录一.现有网络模型的使用和修改二.网络模型的保存和读取“pretrained”(预训练)是深度学习中一个非常重要的概念,指的是模型在大规模公开数据集(如 ImageNet、COCO 等)上提前训练好的状态。这些模型已经通过大量数据学习到了通用的特征(比如图像中的边缘、纹理、基础形状,或文本中的语法、语义规律等),可以直接被复用在新任务中。
金井PRATHAMA
2 天前
人工智能
·
神经网络
·
自然语言处理
·
知识图谱
广泛分布于内侧内嗅皮层全层的速度细胞(speed cells)对NLP中的深层语义分析的积极影响和启示
速度细胞(Speed Cells)作为内侧内嗅皮层(MEC)的核心神经元,通过编码运动速度信息与网格细胞协同实现动态路径整合。这一神经机制为自然语言处理(NLP)的深层语义分析提供了以下关键启示和影响:
毛飞龙
2 天前
深度学习
·
神经网络
·
内存计算
神经网络模型训练需要的内存大小计算方法
如何估算深度学习模型在训练过程中所需的内存,尤其是在给定输入维度、模型结构、批量大小等参数的情况下。我们来一步一步地分析这个问题:
学Linux的语莫
2 天前
人工智能
·
深度学习
·
神经网络
八大神经网络的区别
金井PRATHAMA
3 天前
人工智能
·
深度学习
·
神经网络
·
机器学习
·
语言模型
·
自然语言处理
·
知识图谱
主要分布于内侧内嗅皮层的层Ⅲ的网格-速度联合细胞(Grid × Speed Conjunctive Cells)对NLP中的深层语义分析的积极影响和启示
网格-速度联合细胞(Grid × Speed Conjunctive Cells)主要分布于内侧内嗅皮层(MEC)层Ⅲ,通过整合空间位置(网格编码)与运动速度信息,形成动态路径整合能力。这一神经机制为自然语言处理(NLP)中的深层语义分析提供了以下关键启示与技术突破方向:
cwn_
3 天前
人工智能
·
深度学习
·
神经网络
·
机器学习
·
自然语言处理
自然语言处理NLP(2)
word2vec:单词向量化troubleEmbedding层:单词ID对应行在forward时,提取单词ID对应的向量
文火冰糖的硅基工坊
3 天前
人工智能
·
深度学习
·
神经网络
[机缘参悟-237]:AI人工神经网络与人类的神经网络工作原理的相似性
AI人工神经网络(ANN)与人类神经网络在工作原理上存在多层次的相似性,同时也存在显著差异。以下是两者在核心机制上的对比分析:
无名工程师
4 天前
人工智能
·
神经网络
神经网络知识讨论