Gemini开源项目DeepResearch:基于LangGraph的智能研究代理技术原理与实现

引言

在人工智能快速发展的今天,如何构建一个能够进行深度研究、自主学习和迭代优化的AI系统成为了技术前沿的重要课题。Gemini开源的DeepResearch一周收获7.9k Star,Google的开源项目Gemini DeepResearch技术通过结合LangGraph框架和Gemini大语言模型,实现了一个具备自主研究能力的智能代理系统。本文将深入分析这一技术的核心原理和具体实现方式。

开源项目 Gemini Fullstack LangGraph Quickstart

技术架构概览

Gemini DeepResearch采用了基于状态图(StateGraph)的多节点协作架构,通过LangGraph框架实现了一个完整的研究工作流。整个系统包含以下核心组件:

1. 状态管理系统

系统定义了多种状态类型来管理不同阶段的数据流:

python 复制代码
class OverallState(TypedDict):
    messages: Annotated[list, add_messages]
    search_query: Annotated[list, operator.add]
    web_research_result: Annotated[list, operator.add]
    sources_gathered: Annotated[list, operator.add]
    initial_search_query_count: int
    max_research_loops: int
    research_loop_count: int
    reasoning_model: str

这种设计允许系统在不同节点间传递和累积信息,确保研究过程的连续性和完整性。

2. 核心工作流程

整个研究流程分为五个关键阶段:

阶段一:查询生成(Query Generation)

系统首先分析用户输入,使用Gemini 2.0 Flash模型生成多个优化的搜索查询:

python 复制代码
def generate_query(state: OverallState, config: RunnableConfig) -> QueryGenerationState:
    llm = ChatGoogleGenerativeAI(
        model=configurable.query_generator_model,
        temperature=1.0,
        max_retries=2,
        api_key=os.getenv("GEMINI_API_KEY"),
    )
    structured_llm = llm.with_structured_output(SearchQueryList)
    
    formatted_prompt = query_writer_instructions.format(
        current_date=current_date,
        research_topic=get_research_topic(state["messages"]),
        number_queries=state["initial_search_query_count"],
    )
    result = structured_llm.invoke(formatted_prompt)
    return {"query_list": result.query}

关键特点:

  • 多样化查询生成:系统会生成多个不同角度的搜索查询,确保信息收集的全面性
  • 结构化输出:使用Pydantic模型确保输出格式的一致性
  • 时效性考虑:查询中包含当前日期信息,确保获取最新数据
阶段二:并行网络研究(Parallel Web Research)

系统使用LangGraph的Send机制实现并行搜索:

python 复制代码
def continue_to_web_research(state: QueryGenerationState):
    return [
        Send("web_research", {"search_query": search_query, "id": int(idx)})
        for idx, search_query in enumerate(state["query_list"])
    ]

每个搜索查询都会启动一个独立的web_research节点,实现真正的并行处理。

阶段三:智能网络搜索(Web Research)

这是系统的核心功能之一,集成了Google Search API和Gemini模型:

python 复制代码
def web_research(state: WebSearchState, config: RunnableConfig) -> OverallState:
    response = genai_client.models.generate_content(
        model=configurable.query_generator_model,
        contents=formatted_prompt,
        config={
            "tools": [{"google_search": {}}],
            "temperature": 0,
        },
    )
    
    # 处理搜索结果和引用
    resolved_urls = resolve_urls(
        response.candidates[0].grounding_metadata.grounding_chunks, state["id"]
    )
    citations = get_citations(response, resolved_urls)
    modified_text = insert_citation_markers(response.text, citations)
    
    return {
        "sources_gathered": sources_gathered,
        "search_query": [state["search_query"]],
        "web_research_result": [modified_text],
    }

技术亮点:

  • 原生Google Search集成:直接使用Google的搜索API获取实时信息
  • 自动引用处理:系统自动提取和格式化引用信息
  • URL优化:将长URL转换为短链接以节省token消耗
阶段四:反思与知识缺口分析(Reflection)

这是DeepResearch的核心创新之一,系统会自动评估已收集信息的充分性:

python 复制代码
def reflection(state: OverallState, config: RunnableConfig) -> ReflectionState:
    formatted_prompt = reflection_instructions.format(
        current_date=current_date,
        research_topic=get_research_topic(state["messages"]),
        summaries="\n\n---\n\n".join(state["web_research_result"]),
    )
    
    llm = ChatGoogleGenerativeAI(
        model=reasoning_model,
        temperature=1.0,
        max_retries=2,
        api_key=os.getenv("GEMINI_API_KEY"),
    )
    result = llm.with_structured_output(Reflection).invoke(formatted_prompt)
    
    return {
        "is_sufficient": result.is_sufficient,
        "knowledge_gap": result.knowledge_gap,
        "follow_up_queries": result.follow_up_queries,
        "research_loop_count": state["research_loop_count"],
        "number_of_ran_queries": len(state["search_query"]),
    }

反思机制的核心功能:

  • 知识缺口识别:自动分析当前信息是否足够回答用户问题
  • 后续查询生成:针对发现的知识缺口生成新的搜索查询
  • 迭代控制:决定是否需要进行下一轮研究
阶段五:答案综合(Answer Finalization)

最终阶段将所有收集的信息综合成完整的答案:

python 复制代码
def finalize_answer(state: OverallState, config: RunnableConfig):
    formatted_prompt = answer_instructions.format(
        current_date=current_date,
        research_topic=get_research_topic(state["messages"]),
        summaries="\n---\n\n".join(state["web_research_result"]),
    )
    
    llm = ChatGoogleGenerativeAI(
        model=reasoning_model,
        temperature=0,
        max_retries=2,
        api_key=os.getenv("GEMINI_API_KEY"),
    )
    result = llm.invoke(formatted_prompt)
    
    # 处理引用链接
    unique_sources = []
    for source in state["sources_gathered"]:
        if source["short_url"] in result.content:
            result.content = result.content.replace(
                source["short_url"], source["value"]
            )
            unique_sources.append(source)
    
    return {
        "messages": [AIMessage(content=result.content)],
        "sources_gathered": unique_sources,
    }

技术创新点

1. 自适应研究循环

系统通过evaluate_research函数实现智能的研究循环控制:

python 复制代码
def evaluate_research(state: ReflectionState, config: RunnableConfig) -> OverallState:
    configurable = Configuration.from_runnable_config(config)
    max_research_loops = (
        state.get("max_research_loops")
        if state.get("max_research_loops") is not None
        else configurable.max_research_loops
    )
    
    if state["is_sufficient"] or state["research_loop_count"] >= max_research_loops:
        return "finalize_answer"
    else:
        return [
            Send(
                "web_research",
                {
                    "search_query": follow_up_query,
                    "id": state["number_of_ran_queries"] + int(idx),
                },
            )
            for idx, follow_up_query in enumerate(state["follow_up_queries"])
        ]

这种设计确保了系统既能深入研究复杂问题,又能避免无限循环。

2. 智能引用管理

系统实现了完整的引用管理机制:

  • URL解析:将复杂的搜索结果URL转换为简洁的引用格式
  • 引用插入:自动在文本中插入引用标记
  • 去重处理:确保最终答案中只包含实际使用的引用源

3. 多模型协作

系统巧妙地使用不同的Gemini模型处理不同任务:

  • Gemini 2.0 Flash:用于查询生成和网络搜索,速度快
  • Gemini 2.5 Flash:用于反思分析,平衡速度和质量
  • Gemini 2.5 Pro:用于最终答案生成,确保高质量输出

系统架构图

复制代码
用户输入 → 查询生成 → 并行网络搜索 → 反思分析 → 评估决策
                ↓              ↓           ↓         ↓
            多个搜索查询    收集网络信息   知识缺口分析  继续研究/结束
                                          ↓         ↓
                                    生成后续查询   答案综合
                                          ↓         ↓
                                      返回搜索     最终答案
相关推荐
Ailerx2 天前
OpenAI隆重推出开源大模型:GPT-OSS
gpt·语言模型·开源·大模型·github·开源协议
递归尽头是星辰2 天前
大模型与Spring AI的无缝对接:从原理到实践
人工智能·大模型·spring ai·deepseek
ModelWhale2 天前
“大模型”技术专栏 | 和鲸 AI Infra 架构总监朱天琦:大模型微调与蒸馏技术的全景分析与实践指南(上)
人工智能·大模型·大语言模型
DM今天肝到几点?3 天前
时隔六年!OpenAI 首发 GPT-OSS 120B / 20B 开源模型:性能、安全与授权细节全解
vscode·gpt·ai·chatgpt·大模型·api·claude
倔强的石头1063 天前
智能提示词引擎的革新与应用:PromptPilot使用全解析
大模型·豆包·promptpilot
一个天蝎座 白勺 程序猿3 天前
豆包新模型与PromptPilot工具深度测评:AI应用开发的全流程突破
人工智能·ai·大模型·prompt·豆包
易迟5 天前
从医学视角深度解析微软医学 Agent 服务 MAI-DxO
大模型·agent
Dipeak数巅科技5 天前
数巅智能与湘邮科技达成战略合作 赋能行业大模型应用创新
ai·大模型·智能体
陈敬雷-充电了么-CEO兼CTO5 天前
OpenAI ChatGPT Agent横空出世:全能工具+实时交互,重新定义AI智能体的终极形态
人工智能·gpt·ai·chatgpt·大模型
linweidong5 天前
如何设计和实施高效的向量化数据检索解决方案
人工智能·机器学习·大模型·agent·milvus·faiss·向量索引