Jina Code Embeddings:0.5B 和 1.5B 的 SOTA 代码检索

作者:来自 Elastic JINA

今天我们发布了 jina-code-embeddings,这是一个新的代码 embedding 模型套件,提供两种规模 ------ 0.5B 和 1.5B parameters,并支持 1-4 bit GGUF 量化版本。基于最新的代码生成 LLM 构建,这些模型在体积紧凑的同时仍实现了最先进的检索性能。它们支持五种检索任务,包括 nl2code、code2code、code2nl、code2completions 和 qa,覆盖 15 种编程语言,包括 Python、JavaScript、Java、C++、C#、Go、Rust、TypeScript、SQL、MATLAB、R、Swift、Kotlin、HTML/CSS、PHP、Ruby、Scala、Perl 和 Shell。

jina-code-embeddings 在 25 个代码检索基准上平均性能分别为 78.41%(0.5B)和 79.04%(1.5B)。0.5B 模型比 Qwen3-Embedding-0.6B 高 5 个百分点,尽管体积小 20%;1.5B 版本的性能与 voyage-code-3(79.23%)相当,并超过 gemini-embedding-001(77.38%)------ 这两个都是架构未公开的专有模型。

Model Parameters Overall AVG MTEB Code AVG
jina-code-embeddings-1.5b 1.54B 79.04% 78.94%
jina-code-embeddings-0.5b 494M 78.41% 78.72%
voyage-code-3 Unknown* 79.23% 79.84%
gemini-embedding-001 Unknown* 77.38% 76.48%
jina-embeddings-v4 3.8B 74.11% 74.87%
Qwen3-Embedding-0.6B 600M 73.49% 74.69%

*闭源且架构未公开的模型

两个模型都使用了五个针对不同检索场景的任务专用 instruction 前缀进行训练,每个前缀都支持 query 和 document 角色,用于非对称检索。例如,你可以使用 nl2code_query 来嵌入 queries,使用 nl2code_document 来嵌入 documents。

Task Use Case Instruction Prefix
nl2code "How to read CSV" → pandas.read_csv() "Find the most relevant code snippet given the following query:\n"
qa Technical Q&A retrieval "Find the most relevant answer given the following question:\n"
code2code Finding similar implementations "Find an equivalent code snippet given the following code snippet:\n"
code2nl Code to documentation "Find the most relevant comment given the following code snippet:\n"
code2completion Autocomplete scenarios "Find the most relevant completion given the following start of code snippet:\n"

训练方案

我们使用预训练的代码生成模型作为 embedding backbone。基于 Qwen2.5-Coder-0.5B 和 1.5B 构建,我们的模型具有:

Feature jina-code-embeddings-0.5b jina-code-embeddings-1.5b
Base Model Qwen2.5-Coder-0.5B Qwen2.5-Coder-1.5B
Embedding Dimensions 896 1536
Matryoshka Dimensions 64, 128, 256, 512, 896 128, 256, 512, 1024, 1536
Max Sequence Length 32,768 tokens 32,768 tokens
Pooling Strategy Last-token pooling Last-token pooling
Attention FlashAttention2 FlashAttention2
Data Type BFloat16 BFloat16

传统的代码 embedding 模型面临一个根本瓶颈:高质量的注释 - 代码对用于监督训练的数量非常有限。通过使用在 92+ 编程语言上预训练 5.5 万亿 tokens 的 Qwen2.5-Coder,我们继承了对编程结构的深层语义理解、跨语言模式识别以及对语法和惯用法的内置知识。随后进行的对比微调(contrastive fine-tuning)将这些知识适配到检索任务上,只需最少的对齐数据 ------ 绕过了限制仅 encoder 模型的数据稀缺问题。

对于诸如跨框架代码翻译等数据不足的任务,我们使用 LLM 生成了合成数据,每个合成示例都经过人工质量验证。我们的训练数据将现有的 MTEB 代码任务训练拆分与改编的公开数据集结合,包括 CommitPackFT、SWE-Bench、Spider、MBPP 和 CodeSearchNet。

jina-embeddings-v3 和 v4 不同,我们没有使用 LoRA,而是直接进行完整的后训练(full post-training)。对于像我们这样的轻量模型(494M 和 1.54B parameters),LoRA 的参数效率优势不明显 ------ adapter 的额外开销在容量有限时反而可能影响性能。我们需要每个参数都用于 embedding 任务。即便在多任务场景下,任务专用的 instruction 前缀也比多个 LoRA adapter 更简洁。我们只需在前面添加不同指令,而不是切换权重配置 ------ 更精简,也更符合 LLM 自然处理条件信息的方式。

训练效率非常高:两个模型都使用 InfoNCE loss 的对比学习在 4x A100 80GB GPU 上训练,0.5B 模型仅 8.3 小时完成,1.5B 模型 12 小时完成。

最后,我们对不同的 pooling 策略进行了基准测试。last-token pooling 达到整体平均 78.41%,在所有基准类别中稳定超过 mean pooling(77.20%)和 latent attention pooling(78.27%)。这 1.2 个百分点的优势促使我们打破在 jina-embeddings-v2、v3 和 v4 中建立的 mean pooling 传统。随着更多检索模型基于仅 decoder 的 LLM,last-token pooling 成为自然选择------mean pooling 与单向 attention 机制不太契合。虽然 mean pooling 可以使用,并且在训练早期通常更容易收敛(可能因为其凸优化特性),我们的实验一致显示,它的性能上限低于 last-token pooling 所能达到的水平。

入门

两个模型都可以通过我们的 Search Foundation API 无缝使用,并支持包括 sentence-transformers、transformers 和 llama.cpp 在内的流行框架。我们可以参考之前的文章 "Jina-VLM:小型多语言视觉语言模型" 来获取 JINA API key。

通过 API

arduino 复制代码
`

1.  curl http://api.jina.ai/v1/embeddings \
2.    -H "Content-Type: application/json" \
3.    -H "Authorization: Bearer $JINA_API_KEY" \
4.    -d @- <<EOFEOF
5.    {
6.      "model": "jina-code-embeddings-1.5b",
7.      "input": ["print hello world in python"],
8.      "task": "nl2code.passage"
9.    }
10.  EOFEOF

`AI写代码![](https://csdnimg.cn/release/blogv2/dist/pc/img/runCode/icon-arrowwhite.png)

通过 sentence-transformers

ini 复制代码
`

1.  from sentence_transformers import SentenceTransformer

3.  # Load the model (choose 0.5b or 1.5b)
4.  model = SentenceTransformer(
5.      "jinaai/jina-code-embeddings-1.5b",
6.      model_kwargs={"torch_dtype": "bfloat16"},
7.      tokenizer_kwargs={"padding_side": "left"}
8.  )

10.  # Natural language to code
11.  queries = ["print hello world in python", "initialize array of 5 zeros in c++"]
12.  documents = ["print('Hello World!')", "int arr[5] = {0, 0, 0, 0, 0};"]

14.  # Generate embeddings with task-specific prefixes
15.  query_embeddings = model.encode(queries, prompt_)
16.  document_embeddings = model.encode(documents, prompt_)

18.  # Compute similarity
19.  similarity = model.similarity(query_embeddings, document_embeddings)

`AI写代码![](https://csdnimg.cn/release/blogv2/dist/pc/img/runCode/icon-arrowwhite.png)

通过 transformers

ini 复制代码
`

1.  from transformers import AutoModel, AutoTokenizer
2.  import torch.nn.functional as F

4.  def last_token_pool(last_hidden_states, attention_mask):
5.      left_padding = (attention_mask[:, -1].sum() == attention_mask.shape[0])
6.      if left_padding:
7.          return last_hidden_states[:, -1]
8.      else:
9.          sequence_lengths = attention_mask.sum(dim=1) - 1
10.          batch_size = last_hidden_states.shape[0]
11.          return last_hidden_states[torch.arange(batch_size), sequence_lengths]

13.  tokenizer = AutoTokenizer.from_pretrained('jinaai/jina-code-embeddings-1.5b')
14.  model = AutoModel.from_pretrained('jinaai/jina-code-embeddings-1.5b')

16.  # Apply task-specific prefix
17.  query = "Find the most relevant code snippet given the following query:\nprint hello world"
18.  code = "Candidate code snippet:\nprint('Hello World!')"

20.  # Tokenize and embed
21.  batch_dict = tokenizer([query, code], padding=True, truncation=True, return_tensors="pt")
22.  outputs = model(**batch_dict)
23.  embeddings = last_token_pool(outputs.last_hidden_state, batch_dict['attention_mask'])

`AI写代码![](https://csdnimg.cn/release/blogv2/dist/pc/img/runCode/icon-arrowwhite.png)

Matryoshka Embeddings 截断

两个模型都使用 Matryoshka(套娃) 表示学习训练,适用于维度 [64, 128, 256, 512, 896],允许你在不重新计算的情况下截断 embeddings:

ini 复制代码
`

1.  # Full embeddings: 896d (0.5B) or 1536d (1.5B)
2.  full_embedding = model.encode(text)

4.  # Truncate to smaller dimensions for efficiency
5.  small_embedding = full_embedding[:256]  # Works for both models
6.  tiny_embedding = full_embedding[:128]   # 0.5B supports down to 64d

`AI写代码

这种灵活性允许你根据需求在性能和效率之间进行权衡。

结论

jina-code-embeddings 表明,高效的 code embeddings 并不需要超大规模。通过基于 code generation 模型并应用针对性的微调,我们在参数量不到 1.5B 的模型上实现了最先进的性能。

这些紧凑模型(0.5B/1.5B)的强劲结果验证了我们的观点:正确的基础比参数数量更重要。生成模型理解 code 语义------这种理解可以直接转移到表示任务中。

这与 Jina AI 的更广泛愿景一致:统一架构,使 embedding 和 generation 都源于同一基础,推动 search foundation 模型的可能性边界。

原文:jina.ai/news/jina-c...

相关推荐
神秘代码行者12 小时前
Git Restore 命令教程
大数据·git·elasticsearch
Elastic 中国社区官方博客13 小时前
Jina Reranker v3:用于 SOTA 多语言检索 的 0.6B 列表式重排序器
大数据·人工智能·elasticsearch·搜索引擎·ai·jina
Dxy123931021615 小时前
ES的DSL编写规则规则讲解
大数据·elasticsearch·搜索引擎
啃火龙果的兔子15 小时前
在已有项目目录下添加远程仓库
大数据·elasticsearch·搜索引擎
2501_9418824816 小时前
高并发缓存队列数据库组合优化在互联网系统中的实践分享
elasticsearch·memcache
Elasticsearch16 小时前
使用 LangGraph 和 Elasticsearch 构建人机交互 Agents
elasticsearch
编程大师哥16 小时前
分享一些 Git 常用命令的快捷方式
大数据·git·elasticsearch
哈库纳16 小时前
dbVisitor 使用 MyBatis 方式操作 ElasticSearch
elasticsearch·orm
GeminiJM16 小时前
大索引 Dump 失败问题的完整解决方案
elasticsearch
提笔忘字的帝国18 小时前
Elasticsearch 生产环境参数调优指南
大数据·elasticsearch·搜索引擎