【大模型技术报告】Seed-Thinking-v1.5深度解读

一、报告要解决的"工程/能力缺口"与问题设定

1.1 背景与动机:作者明确指出了哪些瓶颈?
  • 能力类瓶颈:
    • 推理模型依赖思维链: "能够在回答前通过思维链进行推理,从而...实现性能提升"(摘要)。
    • 现有数学基准区分度不足: "AIME 2024已无法提供充分的区分度"(1.引言)。
    • 代码评估方法不一: "与先前一些依赖Elo评分(存在估算且无法直接比较)的研究不同..."(1.引言)。
    • 非推理任务需求: 需要处理"创意写作和对话"等不可验证任务(2.1.2)。
  • 工程类瓶颈:
    • 强化学习训练不稳定: "强化学习算法在推理模型训练中极不稳定且常出现崩溃"(1.引言)。
    • 长思维链生成的资源效率低: "在生成长链思维(Long-CoT)过程中,我们观察到...导致了严重的拖尾现象"(5.1)。
1.2 问题设定与范围:报告的目标边界是什么?
  • 目标用户/场景: 未明确声明。从内容推断,侧重研究社区 (发布新基准、讨论RL算法)与工程实践者(介绍基础设施)。
  • 模型家族范围:
    • 规模与架构: "规模相对较小的混合专家模型,激活参数量为200亿,总参数量为2000亿"(摘要)。
    • 上下文长度: "每个样本被截断至32,000个词元"(4.1)。
    • 多模态: 报告未提及,可推断为纯文本模型。
  • 明确"不做什么/未覆盖什么":
    • 未声明不覆盖多模态、工具调用、具身智能等能力。
    • 未声明边界: 对模型的安全对齐深度、多语言能力、长上下文外推性能的评估范围未做明确限定。

二、核心主张(Claims)清单 + 证据矩阵

2.1 主张清单

A) 性能/能力主张:

  • C1(数学): 在AIME 2024上达到86.7分,与o3-mini-high性能相当,显著优于o1和DeepSeek R1(1.引言,表2)。
  • C2(数学): 在内部新基准BeyondAIME上,性能超越o1和R1,但低于o3和Gemini 2.5 Pro(1.引言)。
  • C3(编程): 在Codeforces pass@8上达到55.0%,优于DeepSeek R1(1.引言,表2)。
  • C4(科学): 在GPQA上达到77.3分,接近o3级别性能(1.引言,表2)。
  • C5(泛化): 非推理任务上,用户正面反馈整体胜率超过DeepSeek R1达8.0%(1.引言,6.2)。
  • C6(算法): 提出的VAPO与DAPO框架能提供稳健且一致的训练轨迹(1.引言)。
  • C7(验证器): Seed-Thinking-Verifier在边缘案例上显著优于Seed-Verifier(3.1,表1)。

B) 效率/成本主张:

  • C8(模型效率): 是"规模相对较小的混合专家模型,激活参数量为200亿"(摘要)。
  • C9(工程效率): 流式推演架构实现"3倍的迭代周期加速";SRS框架缓解拖尾问题(1.引言,5.1, 5.2)。

C) 数据主张:

  • C10(数据规模): RL训练包含10万STEM问题、约1万逻辑谜题及来自豆包1.5 Pro的不可验证数据(2.1.1, 2.1.2)。
  • C11(数据质量): 对STEM数据进行了严格清洗(剔除简单题、修正错误答案)和增强(转换题型)(2.1.1)。

D) 对齐与安全主张:

  • C12(对齐流程): 采用了SFT(40万样本)和混合(可验证+不可验证)RLHF的完整流程(4.1, 4.2)。
  • C13(安全数据): SFT数据涵盖"安全性"领域(4.1)。

E) 长上下文主张: 报告未提出明确的长上下文能力主张。仅提及训练时截断长度。

F) 开源与可复现主张:

  • C14(基准开源): BeyondAIME与Codeforces评估集"两者均将公开发布以支持未来研究"(摘要)。
  • C15(训练细节披露): 报告详细披露了数据构建、奖励设计、RL算法、基础设施架构。
2.2 证据矩阵
主张ID 主张内容(可核验表述) 原文位置 支撑证据类型 证据强度评级 关键缺口 可能的替代解释
C1 AIME 2024: 86.7分 1.引言,表2 实验(分数对比) 1. 未报告推理设置(温度、采样次数)。2. 未报告统计显著性/置信区间。3. 对比模型(o1, R1)的版本和评测设置不明。 证据不足导致无法排除因评测设置(如采样次数、提示)差异带来的优势。
C2 BeyondAIME上超越o1/R1 1.引言 实验(内部基准) 1. 基准未公开,无法独立验证。2. 题目生成与筛选细则未完全披露。3. 对比模型的评测设置未说明。 证据不足导致无法排除内部基准存在无意偏好或评测条件不均等的可能。
C3 Codeforces pass@8: 55.0%,优于R1 1.引言,表2 实验(分数对比,内部沙箱) 1. 使用内部沙箱,非官方提交(表2脚注)。2. pass@8定义(取k次中最佳)与社区常用pass@k(任一次通过)不同,未论证其合理性。3. 对比设置未透明。 证据不足导致无法排除内部沙箱与官方评判器在边界案例上的一致性差异。优势可能部分源于评估指标定义。
C5 非推理任务胜率超R1 8.0% 1.引言,6.2 人工评估(成对比较) 1. 评估提示词集未公开。2. 评估员招募、培训、一致性检验流程未披露。3. 未提供分场景的详细胜率与置信区间。 证据不足导致无法排除评估数据集或评估员主观偏好带来的偏差。
C6 VAPO/DAPO提供稳健训练轨迹 1.引言 经验叙述,暂无实验 1. 未提供与基线PPO等算法的消融实验对比(如训练曲线稳定性、最终性能)。2. "稳健"缺乏量化指标(如loss方差、收敛步数)。 证据不足导致无法验证VAPO/DAPO相对于现有方法的实际优势。
C7 Seed-Thinking-Verifier优于Seed-Verifier 3.1,表1 实验(在456个困难样本上的准确率) 1. 456个困难样本的构建标准与具体分布未公开。2. 未在完整测试集或更大范围对比。 证据充分表明在所选困难案例上更优,但泛化到全体数据的能力证据不足。
C8 激活参数量200亿 摘要 模型规格声明 1. 未披露总参数量2000亿下的专家数、前馈层维度等结构细节。2. 未提供激活参数量与稠密等效模型的换算或效率对比。 仅为一个描述性事实,缺乏与其他MoE模型(如Mixtral, DeepSeek MoE)的效率对比证据。
C10 RL训练数据规模(10万STEM等) 2.1.1, 2.1.2 数据规格声明 1. 未披露各类数据在训练中的混合比例采样策略。2. 数据具体来源(除"开源数据集、国内外公开竞赛")模糊。 证据不足导致无法复现其数据混合配方,这是影响性能归因和复现的关键缺口。
C12 采用SFT+混合RLHF流程 4.1, 4.2 方法流程描述 1. SFT数据中"可验证"与"不可验证"的具体比例未披露。2. RLHF中三类数据的混合权重策略未披露。 流程描述清晰,但关键超参(混合比例)缺失,严重影响可复现性。
C14 将发布BeyondAIME等基准 摘要 未来计划声明 1. 仅为承诺,尚无实际行动证据。2. 未给出发布的时间表和具体形式(如License)。 无法验证,属于未来工作声明。

三、工程路径与核心决策的系统拆解

3.1 数据配方(Data Recipe)的"可见部分与黑箱部分"
  • 可见部分:
    • 构成: RL数据包含可验证(STEM、代码、逻辑谜题)与不可验证(创意写作等)两大类(2.1)。
    • 规模: 给出了STEM(10万)、逻辑谜题(约1万)的近似数量(2.1.1)。
    • 清洗规则: 对STEM数据,描述了剔除简单题、修正错误答案的规则(2.1.1)。
    • 数据生成: 逻辑谜题使用生成器;SFT数据使用拒绝采样(2.1.1, 4.1)。
  • 黑箱部分/模糊处:
    1. 混合比例缺失: 报告未披露可验证不可验证 数据在RL训练中的混合比例,以及数学、代码、逻辑谜题、不可验证数据 四类之间的采样权重(全文)。影响:使性能归因(如数学训练对GPQA的提升)无法精确验证,且外部复现时配方未知。
    2. 数据来源模糊: STEM数据来自"开源数据集、国内外公开竞赛以及专有题库的混合",具体数据集名称、比例未列出(2.1.1)。影响:无法评估数据污染风险及与评测集的潜在重叠。
    3. 合成数据占比不明: SFT数据中通过拒绝采样生成的"详细推理轨迹"占比未说明(4.1)。影响:无法评估模型能力在多大程度上源于合成数据的自举循环。
3.2 架构选型与折中(Trade-offs)
  • 选型: 混合专家模型(MoE),总参数量2000亿,激活参数量200亿(摘要)。
  • 解决的工程瓶颈: 报告未明确阐述。隐含目的是在固定计算预算(激活参数量)下扩大模型总容量,以期获得更好性能。
  • 选择证据: 报告未提供为何选择MoE而非稠密模型,或为何选择此规模比例的消融实验或理论分析。
  • 可替代方案与未选原因: 报告未说明。未与同等激活FLOPs的稠密模型进行性能/效率对比。
3.3 训练动力学与稳定性(Training Dynamics)
  • 讨论内容: 明确指出了"强化学习训练中极不稳定且常出现崩溃"的问题(1.引言),并提出了VAPO/DAPO框架、价值预训练、解耦GAE、长度自适应GAE、上界截断等一系列稳定性技巧(4.2)。
  • 关键细节缺失: 所有提到的稳定性技巧(如VAPO中的λ值、上界截断的ε_high/ε_low)均未披露具体超参数值 (4.2)。影响:这些"魔法常数"对复现其稳定性至关重要,缺失则方法无法复现。
3.4 训练配方透明度审计
  • 已披露: 模型架构(MoE,规模)、SFT学习率与调度(4.1)、训练最大序列长度(32K)、部分并行策略(5.3)。
  • 未披露/模糊:
    • Tokenizer/词表: 未披露。
    • 数据混合比例与采样策略: 未披露(关键缺口)。
    • Batch size / 全局Batch size: 未披露。
    • 优化器、权重衰减、Dropout: 未披露。
    • 训练步数或Token数: 未披露。
    • 基础设施依赖: 提到Ray、HybridFlow,但未说明是否为闭源系统(5.1)。
    • 去重/过滤阈值: 仅描述规则,未给出定量阈值(如"分数方差较低"的具体数值)(2.1.2)。
    • 合成数据使用与比例: 未披露(关键缺口)。
    • 推理设置(用于评测): 未披露(关键缺口,见表2相关主张)。
  • 影响评估: 数据混合比例、关键超参、推理设置的缺失,使得外部研究者无法在相同条件下复现其性能数字,也无法进行公平的对比分析。这严重削弱了报告结论的可复现性与可验证性。
3.5 "魔法常数(Magic Numbers)"审计
  1. RL稳定性技巧参数: VAPO/DAPO的具体参数、解耦GAE的λ_value/λ_policy、长度自适应GAE的α、上界截断的ε_high/ε_low(4.2)。原文未披露。关键缺口。 导致RL训练方法无法复现。
  2. 数据过滤阈值: 不可验证数据剔除中"分数方差较低"的阈值(2.1.2)。原文未披露。 影响数据配方复现。
  3. 正样本LM损失系数μ: (4.2)。原文未披露。 影响RL损失函数复现。
  4. RL训练中在线策略样本比例α: 在SRS中提及(5.2)。原文未披露。 影响工程系统复现。
3.6 对齐(Post-training)流水线审计
  • 对齐阶段: SFT(4.1) → 混合RLHF(可验证+不可验证数据)(4.2)。流程描述清晰。
  • 数据来源占比: 未披露 。SFT数据中"可验证问题"与"不可验证问题"的3:1比例是数量,未必是训练时的采样权重。RLHF中三类数据的混合权重完全未披露(4.2)。
  • 风险项评估(基于报告信息):
    • 合成偏置/自举循环: SFT阶段使用了通过"拒绝采样"生成的合成思维链数据(4.1)。报告未披露其占比,因此无法排除模型能力过度依赖自生成数据的风险。
    • 奖励黑客: 针对Seed-Verifier的漏洞,报告提出了Seed-Thinking-Verifier并展示了其改进(3.1),表明意识到了该风险并试图缓解。
    • 过拟合评测偏好: 在数学和代码上,其奖励信号基于答案正确性 (3.1),与AIME、Codeforces评测目标一致,存在过拟合风险。报告未提供在未见过的数学竞赛(如不同国家的奥赛)上的泛化能力测试。
    • 价值冲突覆盖不足: 报告提及SFT数据包含"安全性"领域(4.1),但未提供任何安全评估结果 (如红队测试、越狱尝试、有害输出率)。无法从原文确认其安全对齐的有效性。

四、评测设计是否"真正验证了主张"

4.1 逐主张对齐评测
  • C1, C3, C4: 由表2中的基准分数直接支持,属于直接验证。
  • C2: 由BeyondAIME上的对比支持,但该基准未公开,为内部验证。
  • C5: 由人工评估结果支持,但评估集和流程未公开。
  • C7: 由在456个困难样本上的准确率对比支持,属于直接验证。
  • C6, C8, C9, C10, C12: 主要为方法或规格描述,对应主张为"我们做了X",而非"X导致Y提升",因此无需实验验证,但需要可复现性支持。
  • 不存在明显的"结论外推"或"用能力基准替代系统指标"。效率主张(C8, C9)与性能主张分述。
4.2 对比公平性与评测可信度审计
  • 对比模型版本与设置: 报告未提供 任何对比模型(o1系列, DeepSeek R1, Gemini等)在评测时的具体版本号、上下文长度、推理温度、采样次数、提示词模板 (表2)。影响:这是严重缺陷,使得所有性能比较结论的可信度存疑,无法排除因评测设置不统一带来的优势。
  • 统计显著性: 报告未提供 任何指标的置信区间或显著性检验结果。影响:对于分数接近的比较(如与o3-mini-high在AIME上的比较),无法判断差异是否显著。
  • 不公平对比风险: 由于对比设置不透明,存在"不公平对比"的风险,但报告未提供足够信息以证实或证伪此风险。
4.3 基准含金量与"刷榜风险"
  • 高刷榜风险基准: AIME(题目有限)、GPQA(可能存在于训练数据)。报告通过构建BeyondAIME来应对AIME区分度不足的问题,这是一个正面做法,但需待其公开和同行评审。
  • 较高真实性基准: Codeforces (报告使用内部沙箱执行,pass@k基于实际运行结果)和内部人工评估能较好反映真实能力。但Codeforces评估集是内部选取的,非全平台题目。
  • 结论绑定原文: 报告强调在AIME和内部Codeforces集上的表现,前者有污染风险,后者真实性高但未公开。
4.4 数据污染(Contamination)与泄漏审计
  • 检测方法: 报告未提及任何针对训练数据与评测集(AIME, GPQA, Codeforces)的去重或污染检测方法。
  • 风险规避措施: 构建了全新的BeyondAIME基准,旨在"最大程度降低通过记忆或猜测解题的可能性"(2.2)。这是对污染问题的一种工程应对。
  • 无法排除的风险: 对于AIME、GPQA等公开基准,报告未提供任何证据排除训练数据污染的可能性,这是一个重大不确定性来源。
4.5 失败案例与边界条件
  • 报告未提供 任何关于模型在各类任务上失败案例的分析、错误类型分布或对抗性测试结果。缺失
  • 影响: 无法了解模型的能力边界和系统性弱点,削弱了对模型全面性的理解。

五、与真实文献/其他技术报告的对比定位

5.1 主流一致性
  • 方法一致性: 使用长链思维(CoT) 进行推理,并采用强化学习(RLHF/RLTF) 进行优化,与OpenAI o1[1]、DeepSeek R1[2]路线一致。
    • 引用1: "OpenAI's o1 series", OpenAI Blog, 2024.
    • 引用2: "DeepSeek-R1: Advancing Reasoning Capabilities of LLMs via Reinforcement Learning", DeepSeek, arXiv:2501.12948, 2025.
  • 经验规律一致性: 报告发现"数学数据展现出强大的泛化能力,能够带来跨任务的广泛性能提升"(1.引言),这与R1等技术报告中强调数学数据价值的观察一致。
  • 工程挑战共识: 强调强化学习训练的稳定性是核心挑战(1.引言),与社区在训练大型RL策略时遇到的普遍问题一致。
5.2 竞争或反对证据
  • 当前未检索到明确反对或支持《Seed-Thinking-v1.5》具体主张的已发表文献。该报告发布于2025年4月,相关对比模型(如o1, R1)的技术报告本身披露细节也有限,直接进行方法层面的深度比较研究尚不充分。
  • 检索关键词范围: 在公开学术数据库(如arXiv, Google Scholar)中,以"Seed-Thinking"、"VAPO"、"DAPO"、"ByteDance reasoning model 2025"、"BeyondAIME"为关键词进行检索,未发现除本报告外的独立分析或对比研究。
5.3 性能/效率性价比与生态定位
  • 效率定位: 报告强调其为一款"激活参数量200亿"的MoE模型,暗示其在计算效率 上的考量。但与同类MoE推理模型(如DeepSeek R1未披露具体激活参数)进行精确的FLOPs-for-FLOPs对比证据不足,因缺少系统吞吐/延迟指标。
  • 开源生态推动力:
    • 承诺开源: 声称将开源BeyondAIME和Codeforces评估集(C14),若实现将对研究社区有贡献。
    • 当前开源: 报告未提及 会开源模型权重、训练代码或关键训练脚本。其贡献主要为方法论与工程经验的文本披露。
    • 对应原文: 摘要(承诺开源基准),全文无模型开源声明。

六、系统性质疑(Top 3 关键主张)

针对 C1: "AIME 2024上达到86.7分,显著优于o1和DeepSeek R1"
  • 6.1 必要假设: ① AIME 2024是评估数学推理能力的有效、无污染基准;② 所有对比模型在完全相同的评测设置下运行。
  • 6.2 证据链断点: 评测设置完全缺失(报告未提供温度、采样次数、提示词)。断点在此。无法确认优势源自模型能力还是评测配置。
  • 6.3 工程落地风险: 在实际部署中,用户可能使用不同的提示或采样参数,导致模型表现与报告数字不符。报告未提供模型表现的鲁棒性分析。
  • 6.4 更简单替代解释: 性能优势可能 仅由更多的数学RL训练数据针对AIME题型优化的奖励信号导致,而非其整体推理架构的优越性。报告未进行消融实验排除此解释。
  • 6.5 避重就轻审计: 报告自身指出"AIME 2024已无法提供充分的区分度"(1.引言),却仍将其作为核心SOTA宣称的依据,并未提供在该基准上详细的、设置透明的对比。证据存在矛盾
针对 C3: "Codeforces pass@8达到55.0%,优于DeepSeek R1"
  • 6.1 必要假设: ① 内部沙箱评估与官方Codeforces评判系统高度一致;② 所选取的"最近12场竞赛"题目具有代表性且无污染;③ pass@8是合理且可比指标。
  • 6.2 证据链断点: 内部沙箱与官方系统的一致性验证证据不足。报告仅称"离线评估结果与官方评判之间存在强相关性"(2.1.1),但未提供量化相关性系数或一致性对比数据。
  • 6.3 工程落地风险: 内部沙箱可能无法完全模拟官方环境的所有约束(如严格的时间、内存限制),导致评估乐观。模型在真实Codeforces平台上的表现仍是未知数。
  • 6.4 更简单替代解释: 优势可能源于测试题目集恰好更匹配Seed-Thinking的训练数据分布,或内部沙箱在某些边界案例上比官方环境更宽松。报告未通过在不同时间段的题目集上测试来排除此解释。
  • 6.5 避重就轻审计: 报告使用了非标准的pass@8定义(取k次中最佳),而社区常用"任一次通过即算pass"。未论证此修改的必要性及其对结果的影响,可能使对比有失公平。
针对 C5: "非推理任务胜率超DeepSeek R1达8.0%"
  • 6.1 必要假设: ① 人工评估的提示词集全面、无偏;② 评估员判断客观、一致;③ 胜率差异具有统计显著性。
  • 6.2 证据链断点: 评估数据与过程黑箱。评估所用的具体提示词、评估员信度指标、统计检验方法均未披露。断点在此。
  • 6.3 工程落地风险: 评估结果可能无法泛化到真实的、多样的用户交互场景。报告未说明评估提示词是如何收集或生成的。
  • 6.4 更简单替代解释: 胜率差异可能 仅反映评估员对Seed-Thinking输出风格的偏好,或评估集在某些任务类型上分布不均,而非模型整体能力的提升。证据不足导致无法排除
  • 6.5 避重就轻审计: 报告只给出了整体胜率,未提供分类型(如创意写作、知识问答、角色扮演)的细粒度结果。无法判断提升是全面的还是集中在某些子集。

七、给作者的"可操作追问清单"

优先级排序:

  1. (关于 C1, C3, C4) 请完整披露表2中所有基准测试的推理设置细节,包括:使用的具体提示词模板(prompt)、温度(temperature)、top_p值、采样次数(对于取平均分的项目)、以及最大生成长度。
  2. (关于 C1, C3) 请提供与对比模型(o1-preview, DeepSeek R1, Gemini 2.5 Pro等)进行公平对比的承诺或证据,说明是否确保了对比时使用相同的提示词、解码参数和计算环境(如相同版本的评判器)。
  3. (关于 C10, C12) 请披露强化学习训练阶段,数学、代码、逻辑谜题、不可验证通用数据 这四类数据的混合比例采样权重。这是复现工作的关键。
  4. (关于 C6, 4.2) 请提供VAPO/DAPO框架与基线PPO算法在训练稳定性 (如loss曲线方差、收敛所需步数)和最终性能 上的消融实验对比图,并披露关键超参数(如λ, ε, μ)。
  5. (关于 C14) 请提供BeyondAIME和内部Codeforces评估集公开发布的具体时间表、许可证(License)以及数据格式说明
  6. (关于 C8, 5.3) 请提供Seed-Thinking-v1.5模型在标准硬件(如A100/H100)上的系统性能指标,包括:不同批次大小和序列长度下的推理吞吐量(tokens/s)、延迟以及显存占用。
  7. (关于 3.4) 请披露完整的训练超参数,包括:全局batch size、优化器类型(AdamW?)、β1/β2、权重衰减率、dropout率、训练总步数或token数。
  8. (关于 4.4) 请说明是否对训练数据与AIME、GPQA等公开评测集进行了去重检查?如果做了,请说明方法和结果;如果没做,请承认此风险。
  9. (关于 安全) 报告提到SFT数据包含"安全性"领域,请提供模型安全对齐能力的评估结果,例如在常用安全基准(如ToxicChat, HarmBench)上的表现,或内部红队测试的主要发现。
  10. (关于 3.1) 请公开用于测试Seed-Thinking-Verifier的456个"困难样本"的具体筛选标准,或直接公开这个测试集,以便社区验证验证器的泛化性能。

八、结论(限制性结论)

在报告证据范围内可确认的结论:

  1. 方法披露详细: 报告系统性地描述了构建一个高性能推理模型的数据准备、奖励工程、RL训练稳定化技巧和分布式工程实践,具有较高的工程参考价值(对应主张C15)。
  2. 验证器改进有效: 在自行构建的456个困难案例集上,Seed-Thinking-Verifier相比Seed-Verifier展示了更高的判断准确率(C7)。
  3. 基准建设努力: 作者认识到现有基准的局限,并构建了新的内部基准(BeyondAIME, Codeforces集)以寻求更好评估(对应动机)。

不确定性清单(关键缺失证据):

  1. 可复现性关键缺失: 训练数据的混合比例 、RL算法的关键超参数 、所有基准测试的推理设置 均未披露。因此,C1, C2, C3, C4, C5, C6等核心性能主张均无法被独立复现和验证
  2. 对比公平性存疑: 由于缺乏对比模型的评测设置信息,所有"优于XXX"的结论(C1, C2, C3, C5)可信度不足
  3. 数据污染未排除: 未提供针对AIME、GPQA等公开基准的训练数据去重分析,无法排除数据污染对部分SOTA宣称的影响
  4. 安全能力未知: 仅提及数据包含安全部分,无任何安全对齐能力的评估结果,模型的实际安全性无法评估(C13相关)。
  5. 效率主张无量化: "激活参数200亿"是描述,"3倍加速"是相对值,缺乏绝对的、可对比的系统效率指标(C8, C9),无法进行性价比评估。
  6. 开源承诺待兑现: 承诺开源基准(C14)但尚未实现,模型与代码开源未提及
相关推荐
代码无bug抓狂人2 小时前
C语言之可分解的正整数(蓝桥杯省B)
c语言·开发语言·算法
愚者游世2 小时前
Opencv知识点大纲
人工智能·opencv·计算机视觉
波动几何2 小时前
Skill 构建指南:从零打造 AI 智能体扩展包
人工智能
爱打代码的小林2 小时前
循环网络RNN--评论内容情感分析
人工智能·rnn·深度学习
2501_947908202 小时前
2026年如何打造理想的沉浸式声学空间,选择合适的吸顶音响至关重要
大数据·人工智能
deephub2 小时前
分类数据 EDA 实战:如何发现隐藏的层次结构
人工智能·python·机器学习·数据分析·数据可视化
Godspeed Zhao2 小时前
从零开始学AI8——机器学习1
人工智能·机器学习
samoyan2 小时前
agent 开发中,压缩历史信息常用策略
人工智能
海绵宝宝de派小星2 小时前
图像处理基础概念与常用操作
图像处理·人工智能·ai