如何高效地为「推理模型」编写最佳提示词?万字长文介绍

编者按: 如何有效地为推理模型编写最佳提示词?对于 OpenAI 推出 O1 和 O3-mini 等这些专为深度推理而设计的模型,传统的提示词工程技巧是否仍然适用?

我们今天为大家带来的这篇文章,作者的观点是:推理模型与传统大语言模型在提示词处理方式上有本质不同,需要采用更简洁直接的提示词策略来充分发挥其优势。文章首先深入剖析了 OpenAI 的 O1/O3-mini 与 GPT-4o 三大模型的核心差异:

  1. O1/O3-mini 内置深度推理链,无需显式引导即可自主分析,而 GPT-4o 依赖提示词驱动分步思考;
  2. O1 系列在专业领域(如数学、法律)展现更强的多步骤推理与自检能力,而 GPT-4o 更擅长快速响应通用任务;
  3. O1/O3-mini 需避免冗余指令,强调简洁提问与结构化输出,而 GPT-4o 需主动引导推理过程。

然后进一步提出优化推理模型性能的实践方法,例如精简提示词、设定角色与格式指令,并以法律案例分析为例,演示如何通过精准设计提示词生成严谨的法律论证。

作者 | Agustinmantaras

编译 | 岳扬

OpenAI 的 O1 和 O3-mini 是两款先进的推理模型,与基础版 GPT-4(通常称为 GPT-4o)在提示词处理和答案生成方式上存在明显差异。这些模型通过模拟人类的分析方法,在处理复杂问题时会投入更多时间进行"深度思考"。

01 重要提示

禁止尝试提取模型的内部推理过程,此类行为违反使用准则。

本文将探讨 O1 与 O3-mini 在输入处理、推理能力和响应行为等方面与 GPT-4o 的区别,并阐述优化推理模型性能的提示词工程最佳实践。最后,我们将这些方法论应用于法律案例分析场景进行实操演示。

02 O1/O3-mini 与 GPT-4o 的差异分析

2.1 输入结构与上下文处理

  • 内置推理 vs 提示词驱动推理:O1 系列模型内置思维链推理机制,能够自主进行多步骤分析,无需通过提示词引导其"逐步思考"。相比之下,GPT-4o 需要类似"Let's think step by step"的指令来解决复杂问题,因其默认不会主动进行深度多步骤推理。使用 O1/O3 时,可直接提出问题,模型会自行展开深度分析。
  • 外部信息依赖:GPT-4o 凭借多种多样的知识库和工具集成(如网页浏览、插件、视觉分析)能处理多领域的任务。而 O1 系列模型在目标训练领域外的知识较有限,例如 O1-preview 虽擅长推理任务,却无法回答关于自身的问题。因此,在使用 O1/O3-mini 时,当任务涉及非常识性内容时,需在提示词中提供必要的背景信息。GPT-4o 可能已掌握相关法律先例或冷门知识,而 O1 需要用户直接提供相关文本或数据。
  • 上下文长度:推理模型的上下文窗口非常大。O1 支持 128k 输入 tokens,O3-mini 可达 200k 输入 tokens(输出上限为 100k),均超过 GPT-4o。这使得处理大量案例文件或数据集更高效。为便于工程设计,建议通过分段、设置列表或标题来清晰地组织长输入内容,帮助模型定位信息。尽管两者都能处理长提示词,但 O1/O3 的容量更大,允许单次输入更详尽的上下文,这对进行复杂分析至关重要。

2.2 推理能力与逻辑演绎

  • 推理深度:O1 和 O3-mini 专为系统性多步骤推理任务进行了优化,通过"延长思考时间"提升复杂任务的处理准确率。例如在 AIME 数学考试中,O1-preview 以 83% 的正确率远超 GPT-4o 的 13%,展现其在专业领域的逻辑优势。这些模型会自动执行推理链,还会自检推理过程,而 GPT-4o 若无明确指令,其推理可能不够彻底,导致在 O1 能处理的极端复杂场景中出现疏漏。
  • 复杂任务与简单任务的处理差异:O1 系列模型默认为深度推理模式,在需要多步骤分析的场景(如综合论证/数学证明)中表现卓越。当任务涉及 5 步以上的推理时,O1-mini/O3 相较 GPT-4 的准确率提升超 16%。但这一特性也带来了副作用:面对简单查询(如 3 步以内的推理问题),O1 的"过度思考"可能适得其反。研究表明,GPT-4o 处理简单问答更直接高效,而 O1 可能生成不必要的分析 ------ 其优势在于复杂场景的精准解构,而非基础问答的响应速度。
  • 逻辑演绎风格:针对谜题/演绎推理类任务,GPT-4o 需通过提示词引导分步推导(否则易直接跳转到结论部分)。而 O1/O3 采用独特的内部模拟机制:在响应过程中自动构建"思维草稿本",通过自我对话反复验证逻辑一致性。这意味着用户无需额外要求模型解释推理过程 ------ 在 O1/O3 给出答案之前会自动这样做。使用 GPT-4o 时,可能需要添加"先列出假设再推导结论(first list the assumptions, then conclude)"等指令来确保逻辑严谨;但对 O1 而言,这类提示词反而可能干扰其内置的推理优化流程。

2.3 响应特征与输出优化

  • 细节丰富度与翔实度:O1 与 O3-mini 因其具备深度推理机制,常为复杂问题生成结构化的、详细的答案。例如,O1 可能会将一个数学问题的解决方案拆解为多步推导方案,或会为战略规划的每一部分阐明逻辑依据。相比之下,GPT-4o 则会默认输出更简洁的答案(如精炼的结论),需被直接要求才会展开详细说明。从提示词工程角度看,若需 O1 精简回答,必须明确给出指令"请简练回答"(如同对 GPT-4 的要求);反之,若希望 GPT-4o 在输出中提供逐步解释,则需主动添加说明。值得注意的是,即使未要求分步解释,O1 在生成答案时可能已在内部完成多步推理。
  • 准确性与自检机制 :推理模型具备动态自检能力 ------ OpenAI 指出,O1 在响应生成过程中能主动捕捉逻辑漏洞,显著提升复杂场景的事实准确性。GPT-4o 虽整体可靠,但如果不加以引导,偶尔也会存在"自信错误"风险或产生幻觉。O1 通过内置验证流程可减少错误输出,而 GPT-4o 可能需要额外指令(如要求它批判或验证其答案)才能达到同等置信度。这表明在使用 O1/O3 时,我们通常可以放心地通过简单直接的提示词来获得复杂问题的正确答案。 而 GPT-4 则可能需要额外提供一些指令,比如"请确保你的回答与上述事实一致"。但需注意:两者均非绝对可靠,关键的事实性输出仍需人工核验。
  • 速度与成本的权衡 :O1 系列模型以响应速度与更高成本换取深度推理能力 ------ O1 Pro 处理长任务时甚至会显示一个进度条。GPT-4o 在常规查询中响应更快,而 O3-mini 作为轻量级推理模型,在降低延迟与 token 成本的同时,仍保持 STEM 领域的推理优势(但在通用知识的覆盖面或极其复杂的推理问题的处理可能无法与完整的 O1 或 GPT-4 相提并论。)。在进行提示词工程以实现最佳响应表现时,我们需要权衡回答的深度与速度:O1 可能需要更多时间才能详尽作答。如果对响应时间有要求,且任务复杂度不属于最高的那类,那么选择 O3-mini(或者 GPT-4o)可能会更合适。OpenAI建议:GPT-4o 仍可是多数任务场景的默认选择,O1 主要用于策略制定/数学/编程等超高复杂度任务。 使用 O1 时需预判其响应延迟,必要时调整系统超时设置或向终端用户说明等待时间。简言之,根据任务复杂度选择工具:简单任务用 GPT-4o 提效,硬核问题用 O1 攻坚。

03 最大限度提升性能的提示词工程技术

要充分发挥 O1 和 O3-mini 的性能,需要采用与 GPT-4o 略有不同的提示词编写方法。以下这些提示词工程技巧和最佳实践,可帮助您从这些推理模型中获得最佳效果:

3.1 保持提示词简洁清晰

提问应简明扼要。 由于 O1 和 O3 会进行密集的内部推理,因此它们对不含冗余文本的重点问题或指令反应最佳。OpenAI 和近期的相关研究都建议避免对这些模型使用过于复杂或引导性过强的提示词。在实际操作中,应直述问题或任务,仅提供必要细节。无需添加"修饰性内容"或对问题进行多次改写。例如,与其写:"在这道具有挑战性的谜题中,我希望你能仔细推理每个步骤,从而得出正确答案。让我们一步一步来...",不如直接问:"请解开下面这道谜题[包含谜题细节]。解释你的推理过程。" 模型自然会在内部进行逐步思考并给出解释。过多的指令反而会适得其反 ------ 有研究发现添加过多提示词上下文或示例会降低 O1 性能,会干扰其推理过程。

技巧:对于复杂任务,先尝试零样本提示(仅提供任务描述),仅在模型输出不符合需求时才添加更多指令。通常对这些推理模型来说,最简的提示词反而效果最佳。

3.2 避免不必要的小样本(Few-Shot)示例

针对 GPT-3/4 的传统提示词工程常使用小样本示例或演示来引导模型。但对 O1/O3 而言,少即是多。 O1 系列模型经过专门训练,不需要包含大量示例的提示词。事实上,使用多个示例可能还会降低性能。对 O1-preview 和 O1-mini 的研究显示,few-shot prompting(包含少量示例的提示词)会持续降低其性能 ------ 即便精心挑选的示例也常使其表现不如简单提示词。提供的示例似乎会分散或限制模型的内部推理。OpenAI 的官方指南与此一致:建议限制对推理模型的额外上下文或示例,以避免混淆其内部逻辑。

最佳实践:使用零样本提示词,必要时最多添加一个示例。若包含示例,请确保高度相关且简单明了。例如在法律分析的提示词中,通常不应预设完整的案例分析示例,而是直接询问新案例。唯一需要使用示范案例的情况是当任务格式非常具体且模型未遵循指令时 ------ 此时可以展示一个简短的目标格式示例。除此之外,请相信模型能通过直接的询问解决问题。

3.3 利用系统/开发者指令设定角色和输出格式

设置清晰的指令上下文有助于引导模型生成响应。通过 API(或在对话界面的系统消息(system message)中)简洁定义模型角色或风格。例如系统消息(system message)可以是:"你是会逐步解释具体解决方案的专家级科研人员"。O1 和 O3-mini 对此类角色指令反应良好,并会将其融入推理过程。但需记住,这些推理模型本身已擅长理解复杂任务,因此指令应聚焦于您期望的输出形式而非思考方式。有效利用系统/开发者指令(system/developer instructions)的场景包括:

  • 确定任务范围或角色:例如"扮演法律分析师"或"以擅长向学生进行讲解的数学老师身份解决问题"。这会影响语气和回答的详细程度。
  • 指定输出格式:若需要结构化形式(列表、表格、JSON等)的答案,请明确说明。O1(尤其是 O3-mini)支持结构化输出模式并会遵循格式要求。例如:"将你的发现以要点列表的形式呈现"。由于其逻辑性较强,它们往往能准确遵循格式指令,这有助于保持响应的一致性。
  • 设置界限:若需控制篇幅或聚焦方向,可加入"在详细分析后提供简要结论"或"仅使用给定信息不作外部假设"等指令。推理模型会遵守这些设置的界限,防止偏离主题或虚构事实。这一点很重要,因为 O1 可能会生成非常详尽的分析内容 ------ 虽然通常情况下这样也很好,但若您明确只需要简要内容时则需进行限制。

请确保每次编写提示词都包含关于语气、角色、格式的指令。

3.4 通过指令控制内容详细程度与分析深度

虽然 O1 和 O3-mini 会自然而然地进行深度推理,但您可控制其在输出中展现多少推理过程。若需要详细解释,可在提示词中要求(例如"在答案中展示你的逐步推理过程")。它们不需要被提醒进行推理,但需要被告知是否展示推理过程。反之,若发现模型回答过于冗长或过于专业,可指示它们回答更加简洁或只聚焦某些方面。例如:"用 2-3 段话进行总结分析,仅包含最关键要点"。模型通常能遵守此类有关篇幅或聚焦方向的指令。需注意 O1 的默认行为是输出全面详尽的内容------优先保证正确性而非简洁性,因此可能倾向于给出更多细节。直接要求输出简洁在多数情况下能覆盖这种行为倾向。

对于 O3-mini,OpenAI 提供了额外的工具来管理分析深度:"推理强度(reasoning effort)"参数(低、中、高)。该设置可让模型知道需要"思考"的强度。在使用 API 或支持该功能的系统中,可为复杂任务调高该参数(确保最大推理强度,但会增加回答长度和延迟),或为简单任务调低(更快、更精简的回答)。这实质上是控制输出详细程度和完整性的另一种方式。若无法直接使用该参数,可通过明确表示模仿低强度模式:例如在速度优先于绝对准确性的场景下要求"无需深入分析,快速给出答案 "。反之要模仿高强度模式,可以说"采取所有必要的步骤得出正确答案,即使解释会较长"。 这些提示词与模型内部设置的运作方式一致。

3.5 确保复杂任务的准确性

要在困难问题上获得最准确的回答,需在提示词中利用推理模型的优势。 由于 O1 可以进行自我检查,甚至发现、捕捉矛盾,因此我们可要求其使用该能力:例如"分析所有事实并双重验证结论的一致性"。通常情况下,推理模型会自动进行这些操作,但强化该指令可以提示模型要格外谨慎。有趣的是,由于 O1 已具备自检能力,因此很少需要类似"验证每个步骤"之类的指令(这对 GPT-4o 更有用)。应把重点放在提供完整且无歧义的信息上。若问题或任务存在潜在的模糊之处,应在提示词中加以澄清或指示模型列出所有假设,防止模型错误猜测。

处理数据源时:若任务涉及分析给定的数据(如总结文档或根据提供的数字计算答案),需确保数据呈现清晰。O1/O3 会严谨使用数据,为了清晰可见,我们可将数据分解为要点或表格。若需避免模型产生幻觉(如法律场景中不应编造法律条文),应明确声明"回答仅基于提供的信息和常识;不可捏造任何细节"。推理模型通常善于遵循已知事实,此类指令能进一步减少幻觉风险。

验证迭代:如果任务非常关键(如复杂的法律推理或高风险的工程计算),可采用集成模型响应的提示词工程技术。这不是一个单一的提示词而是一种策略:多次运行查询(或要求模型考虑其他解决方案)后比较答案。O1 的随机性使其可能每次探索不同推理路径。通过比较输出或在后续提示词中要求模型"反思是否存在其他解读方式",可提高结果可信度。虽然 GPT-4o 也适用于此方法,但当处理绝对准确性至关重要的任务时,这种方法对 O1 尤其有用 ------ 本质上是利用模型自身的分析深度进行交叉验证。

最后请记住,模型的选择本身就是提示词工程的一部分:若解决一个问题无需 O1 级别的推理能力,使用 GPT-4o 可能更高效且同样准确。OpenAI 建议将 O1 留给困难任务,其余情况使用 GPT-4o。因此终极技巧是:先评估任务复杂度。若简单任务,要么以最直接方式要求 O1 避免过度思考,要么切换至 GPT-4o。若复杂任务,则通过上述技术充分发挥 O1 的能力。

04 O1/O3 与 GPT-4o 处理逻辑推理的差异

这些推理模型处理逻辑问题的方式与 GPT-4o 存在本质区别,提示词策略需相应调整:

  • 处理歧义性 :在逻辑推理任务中,若信息缺失或存在歧义,GPT-4o 可能会倾向于临时做出假设(例如:"假设今天是晴天"),而 O1 更可能明确指出存在歧义之处或考虑多种可能性(因其在推理过程中会进行反思的特性)。要利用这一点,可直接在提示词中要求 O1:"若存在不确定因素,请先说明你的假设再解答"。相比之下,GPT-4o 需要更多引导以防止进行臆测。总体而言,O1 的推理更谨慎彻底,GPT-4o 的推理更快速全面。因此,对 GPT-4o 需强调严谨性,而对 O1 只需提供信息并信任其自主推理能力。
  • 分步输出控制:若需要输出逻辑步骤(例如用于教学或需要透明化展示模型思考流程的场景),必须显式要求 GPT-4o "请展示推导过程"。O1 在复杂问题上默认会输出结构化的推理过程,但简单问题可能直接给出结论。若需 O1 展示逻辑链,直接给出指令即可(其子模型 O1-mini 也已被证明具备分步解析能力);若只需最终答案,可明确说明"直接给出最终答案"以跳过冗长的解释。
  • 逻辑严谨性与创造性的平衡:GPT-4(包括 4o)具有创造性优势,可能在逻辑问题中进行类比或虚构场景(虽不总是符合需求)。O1 则专注严格的逻辑分析,优先保证正确性。如果您的提示词涉及一个既需要推理又需要一点创造力的情景(例如解谜时需要串联线索和叙述故事),可用 GPT-4 处理叙事部分,用 O1 进行推理。若仅用 O1/O3,需明确要求"提供创造性的观点或更具想象力的回答"才能突破纯逻辑框架。

总之:

  • 对 O1/O3:将清晰定义的复杂推理任务交给它们,信任其内置逻辑处理机制,无需干预思考过程;
  • 对 GPT-4o:沿用经典提示词工程(问题拆解、要求逐步推理等)以激发同等水平的推理能力;

提示词的风格一定要与模型相匹配 ------ 让 GPT-4o 感到困惑的问题可能正好适合 O1,反之亦然,因为他们的推理方法不同。

05 编写高效提示词:最佳实践总结

为将上述内容整合为可操作的指南,以下提供一份使用 O1 或 O3-mini 模型的最佳实践清单:

  • 使用清晰具体的指令:明确说明你希望模型执行的任务或回答的问题。避免无关细节。对于复杂问题,通常直接提问就足够了(无需复杂的角色扮演或多问题嵌套式提示词)。
  • 仅提供必要的上下文,省略冗余内容:包含模型所需的垂直领域信息(如案件事实、数学题数据等),因为模型可能缺乏最新的或小众的知识。但不要添加无关文本或过多示例 ------ 冗余内容会分散模型的注意力。
  • 少用或不用小样本示例:默认从零样本提示词开始。若模型误解了任务或输出格式,可添加一个简单示例作为引导,但切勿为 O1/O3 添加长串示例链。这类模型不需要大量示例,这样做反而可能降低其性能。
  • 按需设定角色或语气:通过系统消息(system message)或简短前缀引导模型进入正确的思维模式(例如"你是一名高级法律助理,正在分析一个案件")。这种引导尤其有助于调整语气(正式/非正式)并确保使用领域相适应的语言。
  • 明确指定输出格式:若需要特定结构(列表、提纲、JSON 等),需明确告知模型。推理模型能够可靠地遵循格式指令。例如:"请以有序步骤列表的形式回答"。
  • 通过指令控制回答篇幅与细节:要求简洁回答时直接说明(如"用一段话回答"或"仅需回答是/否,然后加一句话解释即可")。需要深度分析时要明确指示(如"提供详细解释")。切勿假设模型默认知晓你对模型响应详细程度的需求 ------ 必须主动说明。
  • 利用 O3-mini 的推理强度设置:通过 API 使用 O3-mini 时,根据任务选择适当的推理强度(低/中/高)。高强度会给出更透彻的答案(适用于复杂法律推理或困难数学题),低强度提供更快速简洁的回复(适合快速检查或简单查询)。这是调节 O3-mini 提示词行为的独特方式。
  • 避免冗余的"逐步思考"提示词:不要为 O1/O3 添加"让我们逐步分析"之类的短语或思维链指令,这些模型已内置此类推理机制。此类提示词应保留给 GPT-4o 等需要显式引导的模型使用,以节省计算资源。
  • 测试与迭代优化:由于这些模型对提示词的措辞较敏感,若未获得理想回答,可尝试重构问题或收紧指令。稍加改动(如直接提问与开放式提示词的转换)可能显著提升效果。虽然 O1/O3 相比旧模型更易一次性处理复杂任务,但微调提示词仍能有助于优化内容的清晰程度与输出格式。
  • 验证重要输出:对于重要应用场景,不要依赖单一的提问-回答循环。后续继续使用提示词要求模型验证其结论(如"你对此结论有信心吗?请解释原因"),或再次询问模型来查看是否得到一致的结果。一致且理由充分的答案能反映模型推理的可靠性。

通过遵循这些技巧,可充分发挥 O1 和 O3-mini 的潜力,并获得高度优化的响应结果,从而发挥它们的优势。

06 将上述最佳实践应用于法律案例分析

最后,让我们通过法律案例分析场景来具体呈现这些提示词设计原则(如前文所述)。法律分析是复杂推理任务的典型代表,若精心设计提示词,O1 模型能在此领域发挥卓越效能:

  • 结构化输入:首先清晰概述案件的关键事实及需要回答的法律问题。例如,以要点或简短段落形式列出背景事实,随后明确提出法律问题:"根据上述事实,依据美国法律判定甲方是否构成违约。"这种结构化的提示词结构有助于模型解析场景,确保关键细节不被遗漏。
  • 提供相关法律依据:若涉及特定法律条文、判例或相关定义,需将其内容或摘要纳入提示词。O1 不具备实时检索功能,可能无法"记忆"起小众法律条款 ------ 若分析依赖某条法律文本,请直接提供。例如:"根据[法律条文 X],[具体内容]...请应用此法条分析本案。"此举为模型提供了精准推理所需的工具。
  • 通过系统消息(System Message)设置角色信息:使用系统指令如"你是一位以清晰、循序渐进的方式解释法律在实际案例中应用的法律分析师",可引导模型生成正式的、结构化的分析。虽然 O1 默认具备严谨的推理能力,但此类指令能使其输出更贴合法律文书风格(如引用事实、应用法条、得出结论)。
  • 无需使用多个示例示范:无需在提示词中提供完整的案例分析示例(此操作可能适用于 GPT-4o)。O1 不需要示例即可完成分析 ------ 它能从零开始构建推理流程。但可简要说明期望的输出格式:"请以 IRAC 格式回答(问题、规则、分析、结论)。"这种格式指令提供了一个模板,无需冗长的示例,O1 会根据模板组织输出。
  • 按需控制输出长度:若需深度分析,O1 可生成涵盖每个问题的多段落详细推理。若需精简版(如一份快速的咨询意见),可指示模型:"将分析集中在核心问题相关的几个关键段落上。"反之,若初始回答过于简短和肤浅,可再次提示:"请详细解释法律如何应用于案件事实的。"O1 会很乐意详细说明,因为它已经在内部已经完成了大量的推理工作。
  • 确保准确性与逻辑一致性:法律分析要求准确地将规则应用于事实。尽管 O1 具有逻辑推理能力,但仍建议核查其引用的法律条文或具体主张(因为其训练数据可能会缺失一些细节内容)。可在提示词末尾添加:"仔细检查所有案件事实是否都已处理,结论是否符合法律规定。" 因为 O1 有自我检查的倾向,模型可能会主动指出是否有逻辑漏洞或隐含的假设 ------ 这在注重细微差别的法律领域尤为重要。
  • 使用后续追问机制:法律场景常需连续提问。例如,在 O1 给出分析后继续追问:"若合同包含不同的终止条款,分析结果将如何变化?"O1 能有效处理此类迭代问题,延续推理链条。但需注意:若交互界面没有超出当前对话上下文的长期记忆(且无检索功能),每次追问需依赖已有信息或补充必要的新信息。需要保持对话聚焦于当前案件事实以避免混淆。

通过应用这些实践方法,您的提示词将引导 O1 或 O3-mini 进行高质量的法律分析。总之,要清晰地陈述案情、明确任务要求,让推理模型承担核心工作。最终结果应是结构严谨、逐步推导的法律论述,希望你能充分发挥 O1 的逻辑优势,并通过高效的提示词设计实现进一步优化。

OpenAI 的推理模型擅长复杂问题的解决,而法律分析正属于需要深度逻辑的领域。O1 系列模型在研究、战略制定等场景的深层推理能力(如 OpenAI 文档所述)同样适用于法律分析。理解其与 GPT-4o 的差异并调整提示词策略,可最大限度发挥 O1 和 O3-mini 的潜力,即使在最具挑战性的推理任务中也能获得准确、结构合理的答案。通过精准控制模型的输出风格与清晰程度,我们既能利用模型的智能,又能确保结果的专业性与实用性。

Thanks for reading!

Hope you have enjoyed and learned new things from this blog!

END

本期互动内容 🍻

文章建议避免在推理模型中使用 few-shot 示例,这一点是否让你感到意外?你打算如何调整自己的提示词策略?

原文链接:

techcommunity.microsoft.com/blog/azure-...

相关推荐
夏白分享社1 分钟前
Nanobrowser:开源AI自动化神器 OpenAI Operator替代品
运维·人工智能·自动化
罗西的思考25 分钟前
探秘Transformer系列之(13)--- Feed-Forward Networks
人工智能·深度学习·机器学习
GIS数据转换器36 分钟前
基于AI智能算法的无人机城市综合治理
大数据·人工智能·科技·gis·无人机·智慧城市
AI技术控1 小时前
计算机视觉算法实战——手势识别(主页有源码)
人工智能·算法·计算机视觉
Beamon__1 小时前
vscode接入DeepSeek 免费送2000 万 Tokens 解决DeepSeek无法充值问题
vscode·deepseek
Hamm1 小时前
MCP 很火,来看看我们直接给后台管理系统上一个 MCP?
后端·llm·mcp
数据库知识分享者小北1 小时前
《阿里云Data+AI:开启数据智能新时代》电子书上线啦!
人工智能·阿里云·云计算
AORO_BEIDOU1 小时前
防爆手机如何突破“安全与效率“悖论?解析AORO M8的双驱动创新
网络·人工智能·科技·5g·安全·智能手机·信息与通信
不一样的信息安全1 小时前
两会期间的科技强音:DeepSeek技术引领人工智能新篇章
人工智能
十三画者2 小时前
【工具】IntelliGenes使用多基因组图谱进行生物标志物发现和预测分析的新型机器学习管道
人工智能·python·机器学习·数据挖掘·数据分析