技术栈
深度学习
ydmy
1 小时前
人工智能
·
深度学习
transformer超参数配置(个人理解)
含义:预测 logits 与真实类别标签之间的差异,是分类任务的标准损失函数。交叉熵计算公式注意:交叉熵损失和KL散度的区别
AI木马人
3 小时前
人工智能
·
深度学习
·
神经网络
6.深度学习入门:神经网络是如何“思考”的?
🧠 单个神经元就像一个小决策器: 输入:x1, x2(比如温度、湿度) 权重:w1, w2(重要性) 偏置:b(基础阈值) 激活函数:f(决定是否“兴奋”)
小鱼~~
5 小时前
深度学习
TensorDataset简介
TensorDataset 是 PyTorch 中一个非常实用的工具类,它的核心作用是将多个张量(Tensor)打包成一个数据集。
毕胜客源码
6 小时前
人工智能
·
python
·
深度学习
·
cnn
·
django
卷积神经网络的农作物识别系统(有技术文档)深度学习 图像识别 卷积神经网络 Django python 人工智能
深度学习框架:Pytorch编程语言:Python数据库:SQLite界面:后端Python Django,前端 Vue3
小鱼~~
7 小时前
人工智能
·
深度学习
GRU模型简介
GRU,全称是门控循环单元,可以看作LSTM(长短期记忆网络)的一个简化但高效版本。它同样为了解决长期依赖问题而生,但结构更简单,计算量更小。
小鱼~~
7 小时前
人工智能
·
深度学习
DataLoader简介
DataLoader 是 PyTorch 中一个非常核心的数据加载工具,它的主要作用是将数据集(Dataset)包装成一个可迭代的对象,为模型训练提供批量、打乱、多进程等数据服务。
多年小白
7 小时前
网络
·
人工智能
·
科技
·
深度学习
·
ai
谷歌第八代 TPU 来了:性能提升 124%
这几天 Google Cloud Next 大会上最炸圈的不是 Gemini 新版本,是两块芯片。谷歌推出了 TPU8t(训练用)和 TPU8i(推理用),每瓦性能分别比上一代提升 124% 和 117%,TPU8i 每美元性能提升 80%。圈内人说了一句话:「如果对外出售,或将取代英伟达。」
AI木马人
8 小时前
人工智能
·
深度学习
·
神经网络
·
计算机视觉
·
自然语言处理
1.【AI系统架构设计】如何设计一个高效、安全的人性化AI工具系统?(从0到1完整方案)
我在做AI工具系统的时候,最开始踩了一个很典型的坑:👉 直接调用大模型API,做一个简单对话页面结果上线后问题全来了:
多年小白
10 小时前
网络
·
人工智能
·
科技
·
深度学习
·
ai
AI 日报 - 2026年4月25日(周六)
就在你睡觉那会儿,OpenAI 悄悄放出了 GPT-5.5——号称迄今为止"最智能、最会独立干活"的模型。它擅长编代码、查资料、分析数据,甚至能跨软件工具一路跑到任务完成;在 Terminal-Bench 2.0 上拿到了 82.7% 的准确率,SWE-Bench Pro 也达到了 58.6%,比之前所有模型都强。有意思的是,它发布的时机恰好在 DeepSeek-V4 上线的几小时之前,这两家的时间差有点微妙。
深度学习lover
10 小时前
人工智能
·
深度学习
·
yolo
·
目标检测
·
计算机视觉
·
垃圾识别
<数据集>yolo 垃圾识别<目标检测>
点击下载数据集https://download.csdn.net/download/qq_53332949/92830074数据集格式:VOC+YOLO格式
LaughingZhu
10 小时前
人工智能
·
经验分享
·
深度学习
·
神经网络
·
产品运营
Product Hunt 每日热榜 | 2026-04-25
标语:找到合适的产品,只需询问即可。介绍:Product Hunt 是一个聚集了无数产品和热爱它们的人们的平台。我们开发了 Ask,旨在帮助你理清这些信息。它是一个人工智能助手,可以利用 Product Hunt 的数据来回答你关于产品的问题,无论你是在挑选新工具、比较不同的选择,还是想了解当前的热门趋势。
AI木马人
11 小时前
人工智能
·
gpt
·
深度学习
·
神经网络
·
自然语言处理
2.【多模型接入架构】如何同时接入GPT、Gemini、Claude并统一管理?(完整实现方案)
我在做AI工具系统初期,只接了一个模型(比如Gemini),代码很简单:一开始没问题,但很快用户开始提需求:
南宫惠泽
11 小时前
人工智能
·
深度学习
深度学习章节:模型的选择与训练.交叉验证.测试集, 诊断偏差与方差,正则化与偏差方差,建立基准性能水平
1. 多项式模型选择的例子 图中展示了从 1 阶到 10 阶的多项式回归模型,用d表示多项式的次数:2. 核心问题:测试集误差被 “过度乐观” 估计了 图中指出了一个关键问题:
金融小师妹
11 小时前
深度学习
·
svn
·
逻辑回归
·
能源
AI多因子定价模型:美元强化与能源约束下 黄金反弹受限弹性解析
摘要:本文通过构建多因子量化分析框架,结合美元指数、利率预期曲线与能源价格变量,分析黄金价格在短期反弹中的约束机制,重点拆解“强美元+高利率+通胀预期”三重因子对金价弹性修复路径的影响。
隔壁大炮
12 小时前
人工智能
·
pytorch
·
深度学习
·
线性代数
·
算法
·
矩阵
Day02-04.张量点乘和矩阵乘法
点乘指(Hadamard)的是相同形状的张量对应位置的元素相乘,使用mul 和运算符 * 实现。矩阵乘法运算要求第一个矩阵 shape: (n, m),第二个矩阵 shape: (m, p), 两个矩阵点积运算 shape 为: (n, p)。
机器学习之心
12 小时前
深度学习
·
回归
·
transformer
GA-Transformer模型回归+SHAP分析+新数据预测+多输出!深度学习可解释分析(附MATLAB代码)
Transformer 模型在自然语言处理等领域表现优异,但其在结构化数据回归预测中的超参数(如自注意力头数)往往靠经验设定,难以保证最优性能。为此,引入遗传算法(GA)自动搜索最优头数,提升模型的预测精度与泛化能力。代码同时对比优化前后的效果,验证 GA 的有效性。
小鱼~~
12 小时前
深度学习
SGD简介
optim.SGD(model.parameters(), lr=0.01) 是 PyTorch 中创建随机梯度下降(Stochastic Gradient Descent)优化器的标准写法。
隔壁大炮
13 小时前
人工智能
·
pytorch
·
深度学习
·
算法
10.PyTorch_元素类型转换
1、data.type(torch.DoubleTensor)2、data.half/double/float/short/int/long()
nancy_princess
13 小时前
人工智能
·
深度学习
·
transformer
Transformer
它允许模型同时关注来自不同位置的信息。通过分割原始的输入向量到多个头(head),每个头能独立地学习不同的注意力权重,从而增强模型对输入序列中不同部分的关注能力。 Multi-Head Attention(多头自注意力)
ydmy
14 小时前
python
·
深度学习
·
embedding
Embedding层(个人理解)
含义:嵌入层通过可学习的权重矩阵将整数索引映射为稠密向量,是 NLP 模型的第一层,相当于查字典。注意: