tensorflow

serve the people8 小时前
人工智能·python·tensorflow
tensorflow 零基础吃透:RaggedTensor 的不规则形状与广播机制 2作为初学者,我们先从核心概念拆解开始,用最通俗的语言讲清楚「广播」和「不规则张量(RaggedTensor)」,再一步步拆解每个示例的计算过程,最后总结规律。
serve the people14 小时前
人工智能·tensorflow·neo4j
tensorflow 零基础吃透:TensorFlow 稀疏张量(SparseTensor)的核心用法稀疏张量(tf.sparse.SparseTensor)是TensorFlow专为含大量零值(或空值)的张量设计的高效存储/处理方案,核心优势是仅存储非零值的坐标和值,大幅节省内存与计算资源。它广泛用于NLP(如TF-IDF编码)、计算机视觉(如含大量暗像素的图像)、嵌入层(embeddings)等超稀疏矩阵场景。
serve the people14 小时前
人工智能·tensorflow·neo4j
tensorflow 零基础吃透:RaggedTensor 的不规则形状与广播机制RaggedTensor的核心特征是「不规则维度」(行长度可变),其形状描述和广播规则与普通tf.Tensor既有共通性,也有针对“可变长度”的特殊设计。以下分「不规则形状(静态/动态)」和「广播机制」两大模块,结合示例拆解原理、用法和避坑点。
serve the people14 小时前
人工智能·tensorflow·neo4j
tensorflow 零基础吃透:RaggedTensor 的底层编码原理RaggedTensor的核心设计是**“扁平化存储+行分区描述”** —— 不直接存储嵌套列表(低效),而是将所有有效元素扁平存储在values张量中,再通过row_partition(行分区)描述“如何将扁平值拆分为可变长度的行”。以下从「核心编码结构」「四种行分区编码」「多不规则维度」「不规则秩与扁平值」「均匀维度编码」五大模块,拆解底层原理和用法。
serve the people3 天前
人工智能·tensorflow
tensorflow 零基础吃透:RaggedTensor 的评估(访问值的 4 种核心方式)评估 RaggedTensor 本质是访问/解析其存储的可变长度数据,TF 提供了4类原生方法,覆盖“快速查看结构”“底层数据拆解”“精准取值”等场景,以下结合示例逐类拆解原理、用法和结果解读。
serve the people3 天前
人工智能·tensorflow·neo4j
tensorflow 零基础吃透:RaggedTensor 的索引与切片(规则 + 示例 + 限制)RaggedTensor 完全支持 Python风格的多维索引/切片,但遵循一个核心限制: ✅ 允许对「均匀维度(最外层,行数固定)」做任意索引/切片; ✅ 允许对「不规则维度(行内可变长度)」做切片(如取前N个、最后N个元素); ❌ 禁止对「不规则维度做固定位置索引」(如强行取所有行的第3个元素)—— 因行长度不同,部分行无该位置,TF无法确定处理逻辑(报错/补默认值/删行均不明确)。
serve the people3 天前
人工智能·tensorflow·neo4j
tensorflow 零基础吃透:RaggedTensor 与其他张量类型的转换RaggedTensor 提供了原生方法,可与 TensorFlow 另外两种核心张量类型(密集张量 tf.Tensor、稀疏张量 tf.SparseTensor)双向转换,覆盖“补0/去填充”“稀疏存储/可变长度处理”等核心场景。以下按「转换方向」拆解每个方法的用法、原理和适用场景。
serve the people3 天前
人工智能·python·tensorflow
tensorflow 核心解析:tf.RaggedTensorSpec 作用与参数说明tf.RaggedTensorSpec 是 TensorFlow 中用于描述不规则张量(RaggedTensor)的“规格/签名” 的类,常用来定义输入签名(如 tf.function、SavedModel、Keras 输入等场景),告诉 TensorFlow 待处理的 RaggedTensor 应满足的形状、数据类型、不规则维度等约束。
聊询QQ:688238863 天前
tensorflow
纯电动汽车Simulink仿真模型建模全记录纯电动汽车Simulink仿真模型建模详细步骤。 通过文档的形式,跟着文档一步一步操作,既可以提高自己的建模能力,又可以对整个建模思路进行借鉴,形成设计能力。 附带模型。
serve the people3 天前
人工智能·tensorflow·neo4j
tensorflow 零基础吃透:tf.function 与 RaggedTensor 的结合使用先准备基础运行环境:被@tf.function装饰的函数,对密集张量和RaggedTensor的处理逻辑完全一致——TF会自动识别输入类型,调用适配RaggedTensor的算子(如tf.concat有专门的Ragged处理逻辑),无需额外修改代码。
serve the people3 天前
人工智能·tensorflow·neo4j
tensorflow 零基础吃透:SavedModel 与 RaggedTensor 的结合使用SavedModel 是 TensorFlow 官方的模型序列化格式,能完整保存模型的「权重+计算图+签名」,支持跨平台部署(如TensorFlow Serving、TFLite)、离线复用; RaggedTensor 与 SavedModel 兼容的核心规则:
聊天QQ:276998854 天前
tensorflow
探索 PLL 电荷泵锁相环:从架构到流片的奇妙之旅pll电荷泵锁相环 (已流片) 内部含有仿真环境 流片验证 有版图 电路架构为三阶二型锁相环,含有环形振荡器 ring vco 模块,鉴频鉴相器PFD模块,分频器DIV模块 ,ps 计数器和电荷泵CP模块 [闪亮][闪亮]指标如下: 参考频率50-100MHz 分频比可调 锁定频率600M-2GHz 锁定时间4us
瀚岳-诸葛弩4 天前
人工智能·pytorch·tensorflow
对比tensorflow,从0开始学pytorch(三)--自定义层上文虽然实现了GMS层的效果,但是前端代码太多,太ugly,也不好复用。今天抽空看了下pytorch中怎么自定义层,很简单,比tensorflow好用。
serve the people4 天前
人工智能·tensorflow·neo4j
tensorflow 零基础吃透:RaggedTensor 的重载运算符RaggedTensor 类重载了Python标准的算术/比较运算符(如+、-、*、==等),底层自动调用TensorFlow的逐元素算子(如tf.add、tf.equal),让你可以像操作普通tf.Tensor一样对RaggedTensor做数学运算,且运算结果仍保留RaggedTensor的可变长度结构(无需转密集张量、无冗余补0)。
serve the people4 天前
人工智能·python·tensorflow
tensorflow 如何使用 tf.RaggedTensorSpec 来创建 RaggedTensortf.RaggedTensorSpec 本身不直接创建 RaggedTensor —— 它是描述 RaggedTensor 「规格/约束」的“蓝图”(比如形状、数据类型、不规则维度数量),而非构造器。
云雾J视界4 天前
tensorflow·wpf·horovod·ray·分布式ai·sintolrtos
分布式AI框架选型困局:SintolRTOS vs Ray vs Horovod,性能压测全解析2022年,某头部互联网大厂自动驾驶部门启动多智能体强化学习项目,目标训练100辆虚拟无人车的协同决策模型。团队基于TensorFlow 2.0与Horovod搭建分布式环境,投入32张A100 GPU。初期测试显示,单机8卡吞吐量为12,000样本/秒,但扩展至32卡时,吞吐量仅提升至18,000样本/秒,扩展效率低至37.5%。更致命的是,智能体间频繁出现决策时序错乱,导致训练策略崩溃。
serve the people5 天前
人工智能·tensorflow·keras
tensorflow 零基础吃透:RaggedTensor 在 Keras 和 tf.Example 中的实战用法 (补充)keras_model的训练报错如下:这个报错的核心原因是:Keras的LSTM层无法直接处理RaggedTensor的内部不规则维度(虽然Input层声明了ragged=True,但LSTM层对RaggedTensor的原生支持存在限制,无法索引不规则的inner维度)。
serve the people5 天前
人工智能·tensorflow·neo4j
tensorflow 零基础吃透:tf.data 中 RaggedTensor 的核心用法(数据集流水线)这份内容会拆解 tf.data.Dataset 与 RaggedTensor 结合的四大核心场景——构建数据集、批处理/取消批处理、非规则张量转Ragged批处理、数据集转换,全程用「通俗解释+代码拆解+原理+结果解读」,帮你理解“可变长度数据”在TF输入流水线中的最优处理方式。
serve the people5 天前
人工智能·tensorflow·keras
tensorflow 零基础吃透:RaggedTensor 在 Keras 和 tf.Example 中的实战用法这份内容会拆解 RaggedTensor 两大核心实战场景——Keras 深度学习模型输入、tf.Example 可变长度特征解析,全程用通俗语言+逐行代码解释,帮你理解“为什么用RaggedTensor”“怎么用”“核心API原理”。
瀚岳-诸葛弩5 天前
人工智能·pytorch·tensorflow
对比tensorflow,从0开始学pytorch(二)--多尺度实现今天尝试着想实现了多尺度,终于发现了pytorch的好处。一开始还吐槽为什么pytorch没有像tensorflow一样提供GAP和GMP这种最基本的层,才发现有AdaptiveAvgPool2d和AdaptiveMaxPool2d这种功能更加强大的层。