检索增强生成(RAG)与大语言模型微调(Fine-tuning)的差异、优势及使用场景详解

本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI

微调大语言模型是利用特定任务或领域的定制数据集,对预训练模型进行调整;而检索增强生成(RAG)则将检索系统与生成模型相结合,动态地将外部的、最新的知识融入生成结果中。

引言

随着生成式人工智能(Gen AI)和自然语言处理(NLP)技术的持续演进,业界对更强大、更高效模型的需求呈指数级增长。从聊天机器人、虚拟助手,到复杂的内容生成与搜索系统,NLP 应用正日益成为现代技术不可或缺的组成部分。然而,伴随着这一不断增长的需求,也带来了如何提升这些系统性能与适应能力的挑战,尤其是在复杂且动态变化的环境中。

目前,提升 NLP 模型性能的两种主流方法是检索增强生成(Retrieval-Augmented Generation, RAG)和微调(fine-tuning)。微调长期以来一直是机器学习领域的常用手段,通过使用额外数据进行训练,使模型能够适应特定任务;而 RAG 则引入了一种创新范式------将检索系统的优势与生成模型相结合,构建出一种动态机制,以应对那些需要大规模信息访问和上下文敏感性的任务。

AI 工程师在项目中常常面临一个艰难抉择:究竟应选择 RAG 还是微调?每种方法都有其独特的优势与权衡取舍,因此必须深入理解它们各自的强项、局限性以及最适合的应用场景。本文旨在全面解析这两种技术,帮助读者掌握所需知识,从而做出明智决策,并在其工作中高效地运用这些强大工具。

自然语言处理技术背景

自然语言处理(NLP)的发展历程由一系列创新推动,旨在让机器能够精准且细腻地理解和生成人类语言。早期的方法,如基于规则的系统和统计模型,依赖人工设计的特征和领域特定的规则。然而,这些方法在可扩展性和泛化能力方面常常面临困难。

深度学习的兴起成为 NLP 发展的关键转折点,引入了能够从大规模数据集中捕捉复杂模式的神经网络架构。word2vec 和 GloVe 等模型率先提出了词嵌入方法,将词语表示为稠密向量空间中的点,从而提升了对上下文的理解能力。随后,基于 Transformer 架构的大语言模型(Large Language Models, LLMs)------如谷歌提出的 BERT(Bidirectional Encoder Representations from Transformers)和 OpenAI 开发的 GPT(Generative Pre-trained Transformer)------通过自注意力机制实现了对文本上下文的深度理解,彻底革新了整个领域。

尽管取得了这些进展,挑战依然存在。在大规模语料库上训练的模型虽然在通用任务上表现优异,但在特定领域应用或面对不断变化的数据时往往缺乏适应性。这一差距催生了微调(fine-tuning)等技术的发展:即利用额外的任务特定数据对预训练模型进行进一步优化。微调被证明非常有效,但通常需要大量的计算资源和时间投入。

近年来,检索增强生成(Retrieval-Augmented Generation, RAG)作为一种互补性方法应运而生。RAG 将检索系统与生成模型相结合,无需进行大规模重新训练,即可让模型在推理过程中动态访问外部知识库。这一创新为那些需要实时获取最新信息或领域专业知识的任务提供了传统微调之外的一种极具吸引力的替代方案。

解码基础:深入解析 RAG 与微调

检索增强生成(RAG)详解

RAG 是 NLP 领域的一项创新方法,它将信息检索能力与语言生成能力有机结合。其核心思想是在生成过程中,使大语言模型能够动态访问并利用外部知识,从而显著增强其表达与推理能力。

RAG 架构主要由两个关键组件构成:检索器(retriever)和生成器(generator)。检索器负责从庞大的文档集合或知识库中搜索并提取与当前任务相关的信息。该组件通常采用先进的信息检索技术,例如稠密向量表示(dense vector representations)和高效的相似性搜索算法,以针对给定查询或上下文精准定位最相关的知识片段。

另一方面,生成器(generator)是一种语言模型,它结合检索到的信息与原始输入,生成连贯、语境恰当且准确的响应。该组件利用预训练语言模型(如 GPT 或 BART)的强大能力,在生成类人文本的同时,融入检索器提供的外部知识。

RAG 通过将生成过程以检索到的信息为条件,将外部知识整合进语言模型中。这种方法使模型能够访问其初始训练数据中可能不存在的最新或任务特定信息。因此,经过 RAG 增强的模型能够在各种任务和领域中提供更准确、更及时、信息更丰富且上下文更相关的回答。

一个典型的 RAG 系统包含以下关键组件:

  • 知识库(Knowledge Base)

    :可以是一个大规模文档语料库、包含外部信息的结构化数据,甚至整个互联网。

  • 检索器(Retriever)

    :负责从知识库中搜索并提取相关信息的模块。

  • 编码器(Encoder)

    :将输入查询和文档转换为稠密向量表示的组件。

  • 相似性搜索(Similarity Search)

    :一种基于向量相似度识别最相关文档的算法。

  • 生成器(Generator)

    :利用检索到的信息和输入上下文生成最终输出的语言模型。

  • 融合机制(Fusion Mechanism)

    :一种将检索信息与输入相结合以引导生成过程的方法。


微调详解

微调(Fine-tuning)是 NLP 中一种强大的技术,指对预训练语言模型进行进一步训练,使其适应特定任务或专门领域。该过程充分利用大型通用模型已有的知识和能力,并对其进行定制化调整,从而在目标应用场景中实现更优性能。

本质上,微调建立在迁移学习(transfer learning)的概念之上------即模型可将在一个任务中学到的知识迁移到另一个相关任务中。在语言模型的语境下,这意味着模型在预训练阶段获得的通用语言理解与生成能力,可以被进一步细化和专业化,以满足具体用例的需求。这种方法显著减少了对任务特定训练数据的需求,并加速了面向各类应用的高性能模型的开发进程。

微调过程包括将预训练模型暴露于一个精心构建的、能够代表目标任务或领域的数据集。在此阶段,模型的参数会被调整,以优化其在新任务上的表现,同时保留预训练阶段获得的基础语言知识。这种精妙的平衡使模型既能利用其对语言的广泛理解,又能发展出针对特定应用场景的专业能力。

微调模型的主要步骤包括:

  • 选择一个合适的预训练模型作为起点
  • 准备高质量、面向具体任务的微调数据集
  • 定义任务特定的模型架构(例如,添加分类层)
  • 配置微调过程中的超参数
  • 在新数据集上训练模型,并更新模型参数
  • 在独立的测试集上评估微调后模型的性能
  • 根据需要迭代优化整个流程,直至达到预期效果

微调使开发者能够在无需大量计算资源或海量数据的前提下,为各种应用场景(如情感分析、命名实体识别和问答系统等)构建专用模型。这一方法大大降低了使用前沿语言模型的门槛,加速了人工智能解决方案在各行各业的落地与普及。


RAG 与微调正面交锋:性能指标对比

准确性与精确度

在评估 RAG 与微调方法的性能时,准确性和精确度是关键指标,其表现会因具体任务而异。RAG 在需要最新或专业知识的场景中表现卓越,而微调则在任务模式清晰、数据分布稳定的情况下更具优势。

影响两种方法准确性的因素各不相同。对于 RAG 而言,外部知识库的质量与相关性至关重要;检索机制的有效性,以及将检索信息与生成过程融合的能力,也显著影响最终准确性。此外,知识库的多样性与覆盖广度决定了 RAG 在不同领域中的表现。

对于微调而言,任务特定训练数据的质量与数量极为关键。预训练领域与目标任务领域之间的相似度也会影响准确性。此外,学习率、训练轮数等超参数的选择,也会显著影响微调后模型的性能。

在需要访问大量且最新信息的场景中,RAG 通常优于微调。例如,在开放域问答任务中,RAG 可借助其庞大的知识库提供更准确的答案,尤其对于涉及近期事件或原始训练数据未涵盖的专业主题的问题。

相反,在任务结构清晰、数据分布稳定的场景下(如命名实体识别或情感分析),微调模型往往表现更佳。这类任务在不同文本中保持相对一致的模式,微调模型可通过专门学习任务特有的模式和细微差别,实现更高的准确率。

事实核查是 RAG 展现更高准确性的另一领域。通过从知识库中的多个来源检索并交叉验证信息,RAG 能提供比微调模型更可靠的事实验证------后者仅受限于训练期间编码到模型参数中的信息。

然而,在需要深入理解特定领域术语或高度专业化语言模式的任务中,微调可能胜过 RAG。例如,在法律文书分析或医疗报告生成等场景中,若外部知识库未能全面覆盖该专业领域,那么基于领域数据微调的模型往往会比 RAG 系统取得更高的准确性。

适应性与泛化能力

适应性与泛化能力是人工智能模型的关键特性,决定了模型在面对新数据和新任务时的表现能力。检索增强生成(RAG)模型与微调模型在这两个方面展现出不同的特点,各自具有独特的优势与局限。

RAG 模型在适应新信息和新场景方面表现更优。通过利用外部知识库,RAG 无需重新训练即可整合最新信息,使其在信息快速变化的动态环境中始终保持时效性和相关性。

相比之下,微调模型虽然在特定任务上高度专业化,但在适应性方面往往存在困难。它们容易出现"灾难性遗忘"现象------即模型在适应新任务或新数据时,会丢失先前学到的知识。这是因为微调过程会调整模型参数以优化新任务的性能,可能会覆盖掉对先前任务有用的知识。

RAG 通过维护一个独立且可更新的知识库来避免灾难性遗忘问题。它不修改模型内部参数,而是从外部来源检索相关信息,从而在适应新数据的同时,不会损害其在已学任务上的表现。

泛化能力在以下任务中尤为重要:

  • 开放域问答

    :RAG 能够访问广泛的知识库,即使面对训练中未见过的主题,也能回答多样化的问题。

  • 零样本学习

    :RAG 可借助知识库中的相关信息,在未经显式训练的任务上取得合理表现。

  • 跨语言任务

    :微调模型在遇到训练数据中未包含的语言或方言时可能表现不佳,而 RAG 则有可能检索并利用多语言信息。

  • 时序推理

    :RAG 能整合最新信息,因此更适合处理涉及当前事件或不断演进知识的任务。

RAG 与微调在适应性方面的关键差异包括:

  • 知识整合方式

    :RAG 动态整合新信息,而微调模型需重新训练。

  • 灾难性遗忘

    :RAG 基本避免了该问题,微调模型则容易受其影响。

  • 任务灵活性

    :RAG 无需重新训练即可适应更广泛的任务,而微调模型更具任务专一性。

  • 持续学习能力

    :RAG 通过更新知识库支持持续学习;微调模型训练完成后知识通常是固定的。

  • 对未见数据的泛化能力

    :得益于广泛的一般知识访问,RAG 在全新场景中通常表现更佳。

资源需求与计算开销

RAG 与微调模型的计算需求存在显著差异,这直接影响它们在实际应用中的部署与可扩展性。由于 RAG 需要在推理时实时维护并查询大型外部知识库,通常需要更多的计算资源。

在 GPU/TPU 使用方面,微调在训练阶段通常需要大量计算资源,但推理阶段效率更高。RAG 模型在初始设置阶段计算负担较轻,但在推理过程中需要持续的 GPU/TPU 算力,以支持实时信息检索与整合。

内存需求也大不相同。微调模型将所有信息存储于模型参数中,导致模型体积较大,但推理速度可能更快。RAG 模型的核心部分较小,但需要额外内存来存储和访问外部知识库。

两种方法在可扩展性方面各有挑战。微调模型在特定任务上扩展性良好,但若需覆盖不同领域,往往需要重新训练或使用多个独立模型。RAG 系统因其模块化结构,在多样化任务中具备更好的可扩展性------只需更新知识库,无需改动核心模型。

模型规模 任务 RAG 计算开销 微调计算开销
问答
命名实体识别
摘要生成 极高

优化 RAG 系统资源使用的建议:

  • 实现高效的索引与检索算法。
  • 对高频访问信息使用缓存机制。
  • 对大规模知识库采用分布式计算。

优化微调的建议:

  • 使用参数高效微调技术(如适配器层)。
  • 应用量化与剪枝以减小模型体积。
  • 利用迁移学习减少新任务的训练时间。

两种方法均可受益于硬件加速和优化的推理引擎。选择 RAG 还是微调,通常需在计算开销、任务灵活性和性能需求之间进行权衡,具体取决于应用场景。

推理速度与延迟

RAG 模型虽灵活且能访问动态实时信息,但本质上推理速度较慢。其高延迟主要源于检索过程:在生成响应前,RAG 必须搜索知识库、检索相关信息,并将其与用户查询整合。尽管这一额外步骤增强了模型获取最新信息的能力,但也带来了显著的时间开销。

在推理阶段的计算需求方面,两者也有明显区别。微调模型已将任务特定知识内化到参数中,推理时通常计算负担较轻,仅依赖输入和预训练/微调后的权重。而 RAG 模型需维护并查询大型外部知识库,计算密集度高,可能需要额外硬件资源。

部署时选择 RAG 还是微调,取决于应用的具体需求。对于实时聊天机器人或自动交易系统等对延迟敏感的任务,微调模型的低延迟更具优势。而对于新闻摘要或动态事实核查等对信息时效性要求高的应用,RAG 的额外延迟可能是可接受的,因其能获取并整合最新信息。

实施策略:让 RAG 与微调落地

RAG 实施蓝图

构建 RAG 系统包含若干关键步骤,每一步都对模型的有效性和效率至关重要。首先进行数据准备,收集并预处理高质量、多样化的语料库,作为 RAG 系统运行时查询的知识基础。

其次,训练检索器组件。RAG 中的检索器通常使用嵌入模型(如 BERT 或 DPR,即 Dense Passage Retriever)将查询和文档编码为稠密向量表示,以便进行相似性搜索。

接下来是检索器与生成器的集成,这是关键环节。需设计一条高效流水线,能根据输入查询快速检索相关信息,并无缝融入生成过程。生成器通常是一个预训练语言模型(如 GPT),需进一步微调以有效利用检索到的信息。

常用 RAG 框架与工具包括:

  • Haystack

    :端到端 RAG 框架,提供文档存储、检索器和阅读器组件。

  • LangChain

    :简化大语言模型与外部数据源及其他计算模块结合的库。

  • Hugging Face Transformers

    :提供用于检索和生成任务的预训练模型与工具。

以下是一个简化的 RAG 系统伪代码:

ini 复制代码
def rag_system(query, knowledge_base):
    # 检索相关文档
    relevant_docs = retriever.get_relevant_documents(query, knowledge_base)
    # 拼接检索到的文档作为上下文
    context = " ".join(relevant_docs)
    # 结合查询与上下文生成响应
    response = generator.generate(query + context)
    return response

# 使用示例
query = "法国的首都是哪里?"
response = rag_system(query, knowledge_base)
print(response)

RAG 实施最佳实践:

  • 确保知识库内容多样且高质量,覆盖广泛主题。
  • 定期更新知识库以保持准确性和时效性。
  • 实现高效的索引与检索机制,降低延迟。
  • 在任务特定数据上微调生成器,提升输出连贯性与相关性。
  • 建立稳健的评估流程,衡量检索信息与生成响应的质量。
  • 考虑在初步检索后加入重排序步骤,提升相关性。
  • 尝试不同检索与生成模型组合,找到最适合具体用例的配置。

微调实施蓝图

对预训练语言模型进行微调需采用系统化方法,确保模型有效适应目标任务或领域。首先进行数据准备:收集、清洗并按需标注高质量的领域特定数据集,作为模型专项训练的基础。

随后进入模型选择阶段,挑选合适的预训练模型(如 BERT、GPT 或 T5),并根据任务需求(如分类、摘要或问答)对模型架构进行微调,例如添加任务特定层。

准备好数据与模型后,开始微调过程:使用合适的超参数、损失函数和优化器在任务特定数据集上训练模型,并通过验证集定期评估,防止过拟合。

常用微调框架与工具包括:

  • Hugging Face Transformers

    :提供预训练模型、分词器及多种 NLP 任务的微调工具。

  • PyTorch 与 TensorFlow

    :主流机器学习框架,支持自定义模型的实现与微调。

  • Google Colab 与 Kaggle

    :提供免费 GPU 的云端平台,适合微调小型模型。

以下是一个用于情感分析的微调伪代码示例:

ini 复制代码
from transformers import AutoModelForSequenceClassification, AutoTokenizer, Trainer, TrainingArguments

# 加载预训练模型与分词器
model_name = "bert-base-uncased"
model = AutoModelForSequenceClassification.from_pretrained(model_name, num_labels=2)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# 数据预处理
def preprocess_function(examples):
    return tokenizer(examples["text"], truncation=True, padding=True)

tokenized_datasets = raw_datasets.map(preprocess_function, batched=True)

# 训练参数设置
training_args = TrainingArguments(
    output_dir="./results",
    evaluation_strategy="epoch",
    save_strategy="epoch",
    learning_rate=2e-5,
    per_device_train_batch_size=16,
    num_train_epochs=3,
    weight_decay=0.01,
)

# 定义训练器
trainer = Trainer(
    model=model,
    args=training_args,
    train_dataset=tokenized_datasets["train"],
    eval_dataset=tokenized_datasets["validation"],
)

# 开始训练
trainer.train()

微调实施最佳实践:

  • 任务数据质量

    :确保数据集干净、标注准确,并能代表目标领域或任务。

  • 超参数调优

    :尝试不同学习率、批次大小和训练轮数以优化性能。

  • 防止过拟合

    :使用 dropout、早停或正则化等技术提升泛化能力。

  • 定期评估

    :训练过程中监控验证集表现,确保有效学习。

  • 利用预训练层

    :冻结基础模型,仅微调任务特定层,提高资源效率。

  • 高效资源利用

    :使用 GPU/TPU 云资源及批处理加速微调。

  • 持续更新

    :定期用新数据重新训练模型,保持时效性与准确性。

遵循此蓝图,可高效实现各类 NLP 任务的微调,在保证任务性能的同时优化资源使用。

选择合适的 AI 模型增强技术

RAG 的优势场景

RAG 在需要访问海量、最新信息且无需重新训练即可适应新数据的场景中表现卓越。这使其特别适用于知识持续演进或信息范围过于广泛、难以完全内化到单一模型参数中的领域。

典型例子是开放域问答系统。与仅依赖参数内嵌知识的微调模型不同,RAG 能动态从知识库中检索并整合最新信息。这一能力对虚拟助手或客服聊天机器人至关重要,因为它们需在广泛主题上提供准确、及时的回答。

RAG 在需要事实准确性与内容多样性的内容生成任务中同样出色。例如,在自动新闻摘要或报告生成中,RAG 可引入最新数据与统计信息,确保内容既新颖又准确。这种动态知识整合在金融等领域尤为宝贵,因为市场状况与公司信息瞬息万变。

RAG 处理频繁更新信息的能力在许多现实应用中具有显著优势。例如在医疗领域,基于 RAG 的系统无需反复重新训练,即可同步最新研究成果、治疗方案和药物信息,确保医护人员在关键决策时获得最新、最相关的知识。

RAG 的主要应用场景包括:

  • 开放域问答与聊天机器人
  • 实时新闻摘要与分析
  • 科学文献综述与研究辅助
  • 金融市场分析与报告
  • 教育工具与互动学习平台
  • 事实核查与虚假信息检测系统

在这些场景中,RAG 将大语言模型的泛化能力与信息检索系统的精准性与时效性相结合,成为处理复杂、知识密集型任务的强大工具。

微调的优势场景

微调适用于任务特定优化和低延迟性能至关重要的场景。一个典型领域是特定领域的自然语言处理任务。例如,在法律、医疗或技术文档分析中,微调模型通过专项训练理解专业术语、上下文和细微差别,表现优于通用模型。

任务特定性能优化是微调的另一优势。在情感分析、垃圾邮件检测或命名实体识别等应用中,微调模型通过聚焦特定任务数据集,实现卓越性能,不仅能准确识别,还能稳健处理领域特有细节。

微调在低延迟环境中同样表现出色。由于不依赖外部检索机制,微调模型比 RAG 等检索增强系统生成响应更快,非常适合聊天机器人、语音助手和实时翻译等对响应速度要求极高的应用。

在医疗或金融等数据隐私至关重要的环境中,微调模型还具备额外优势:通过将任务知识直接嵌入模型,减少了对外部数据检索的依赖,从而降低数据泄露或隐私违规风险。

微调的主要应用场景包括:

  • 社交媒体或客户反馈的情感分析
  • 法律与医疗文档分析
  • 个性化推荐与用户画像
  • 金融系统中的欺诈检测与风险评估
  • 低延迟客户服务聊天机器人
  • 任务特定摘要与报告生成
  • 领域特定翻译与语言模型
  • 技术支持与故障排查助手

在这些场景中,微调模型凭借其任务专精能力和快速响应效率,成为不可或缺的方法。其对稳定数据集和内嵌知识的依赖,使其在可预测、任务聚焦的应用中持续高效。

混合方法:两全其美

结合 RAG 与微调的混合方法,为同时需要最新信息检索与任务特定优化的场景提供了强大解决方案。这类方法融合两者优势,构建出更灵活高效的 AI 系统。

一种有效策略是以微调模型作为 RAG 系统的基础。这样,模型既具备特定领域的专业知识,又能访问并整合外部信息。例如,在医疗诊断系统中,基础模型可微调于医学术语和常见诊疗流程,而 RAG 能力则使其检索最新研究成果或罕见病例。

另一种方法是先用 RAG 进行初步信息检索,再对输出生成过程进行微调。这在事实准确性与风格一致性均重要的内容创作任务中尤为有用。例如,新闻摘要系统可用 RAG 收集相关事实,再通过微调语言模型按特定新闻风格生成摘要。

混合方法的实际应用包括:

  • 法律研究工具:结合微调模型理解法律语言,RAG 访问最新判例与法规。
  • 教育平台:微调用于个性化教学,RAG 检索多样且最新的学习资料。
  • 金融分析系统:微调模型预测市场趋势,RAG 整合实时经济数据。

下图决策树可指导从业者根据具体用例选择最合适的方法,在专业深度与信息时效性之间取得平衡。

结论

RAG 与微调代表了提升 AI 模型性能的两种不同路径,各有优势与局限。RAG 擅长需要访问大规模、频繁更新知识库的场景,具备无需重新训练即可适应新信息的灵活性。而微调则在任务专精应用中表现突出,提供更快的推理速度和更紧凑的模型。

选择 RAG 还是微调时,需综合考虑任务性质、数据更新频率、计算资源及可解释性需求。RAG 更适合开放域任务和需要最新信息的应用;微调则适用于知识稳定、定义明确的专项任务。

将所选方法与项目具体需求和约束对齐至关重要。需权衡推理速度、模型大小、适应性以及对外部知识库的依赖程度。某些情况下,结合 RAG 与微调的混合方法可能是最优解。

鼓励从业者亲自尝试两种方法,积累实践经验。

常见问题解答

Q:RAG 与微调在推理速度上有何差异? A:微调模型通常推理速度更快。图表显示,在所有模型规模(小、中、大)下,微调模型的推理时间始终低于 RAG 模型。

Q:实施 RAG 系统的主要挑战有哪些? A:关键挑战包括构建与维护大规模、最新知识库,实现高效检索机制,平衡检索准确性与速度。此外,确保检索信息的相关性及其与生成过程的无缝整合也较为复杂。

Q:如何判断我的任务是否只需微调,还是应考虑 RAG? A:若任务定义清晰、知识领域稳定且无需频繁更新,可选择微调。若应用需访问广泛且频繁更新的知识库,或需处理原始训练数据范围之外的查询,则应考虑 RAG。

Q:RAG 与微调能否有效结合? A:可以。混合方法非常有效。例如,可将微调模型作为 RAG 系统的基础,结合专业领域知识与外部信息检索能力;也可先用 RAG 检索信息,再对生成过程进行微调以适配特定任务或风格。

Q:RAG 与微调在模型可解释性方面有何差异? A:RAG 通常更具可解释性,因其能提供检索信息的来源,便于追溯模型决策过程。微调模型虽在特定任务上可能更准确,但其推理过程透明度较低。

Q:除 RAG 与微调外,模型增强技术还有哪些新兴趋势? A:新兴趋势包括:持续学习技术(使模型无需完整重训即可更新知识)、更高效的参数高效微调方法、基于先进神经架构的改进检索机制,以及能动态决定何时使用内部知识 vs. 外部检索的模型。

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI

相关推荐
Jimmy8 小时前
年终总结 - 2025 故事集
前端·后端·程序员
CoderJia程序员甲9 小时前
GitHub 热榜项目 - 日榜(2025-12-21)
开源·大模型·llm·github·ai教程
智泊AI10 小时前
这真的是我看过最深刻的2025年AI大模型年度复盘
llm
程序员鱼皮13 小时前
从夯到拉,锐评 28 个后端技术!
后端·计算机·程序员·开发·编程经验
阿里巴巴AI编程社区14 小时前
技术视角下的 Credits 消耗与优化
agent
草帽lufei14 小时前
Ubuntu中为AI Agent相关开发配置Python环境
python·agent·ai编程
DigitalOcean15 小时前
DigitalOcean推出AI智能体开发套件(ADK),让你的 AI Agent 从原型走向可用
agent·vibecoding
字节跳动数据平台16 小时前
火山引擎多模态数据湖发布“数据处理Agent” 代码编写速度提升50%
agent
孟健16 小时前
AI 能写 90% 代码之后:程序员到底还剩什么价值?
程序员·ai编程