Elasticsearch:如何为 Elastic Stack 部署 E5 模型 - 下载及隔离环境

从双向编码器表示(Embeddings from bidirectional Encoder Representations,简称 E5)是一种自然语言处理模型,它可以通过使用稠密向量表示来执行多语言语义搜索。该模型推荐用于非英语文档和查询。如果你想对英文文档执行语义搜索,可以使用 ELSER 模型。

语义搜索根据上下文含义和用户意图提供搜索结果,而不是仅仅匹配关键词。

E5 有两个版本:

  1. 跨平台版本:可在任何硬件上运行

  2. Intel® 硅优化版本:针对 Intel 硬件优化

Model Management > Trained Models 页面上,可以查看根据集群硬件推荐部署的 E5 版本。不过,推荐的使用方式是通过 inference API 作为服务 使用 E5,这样可以更方便地下载和部署模型,无需手动选择不同版本。

如需更多信息,包括许可说明,可以参考 HuggingFace 上的 multilingual-e5-smallmultilingual-e5-small-optimized 模型卡。

要求

要使用 E5,你必须拥有用于 semantic search 的相应订阅等级或已激活试用期。

建议为你的 E5 部署启用 trained model autoscaling。参考 Trained model autoscaling 了解更多信息。

下载并部署 E5

下载并部署 E5 最简单且推荐的方式是使用 inference API

1)在 Kibana 中,进入 Dev Console。

2)通过运行以下 API 请求,使用 elasticsearch 服务创建一个 inference endpoint:

复制代码
PUT _inference/text_embedding/my-e5-model
{
  "service": "elasticsearch",
  "service_settings": {
    "num_allocations": 1,
    "num_threads": 1,
    "model_id": ".multilingual-e5-small"
  }
}

该 API 请求会自动启动模型下载,然后部署模型。

参考 elasticsearch inference service 文档了解可用设置的更多信息。

在创建 E5 inference endpoint 后,它即可用于 semantic search。在 Elastic Stack 中执行 semantic search 最简单的方法是遵循 semantic_text workflow

下载并部署 E5 的替代方法

你也可以从 Trained models 页面、Search > Indices,或通过在 Dev Console 中使用 trained models API 下载并部署 E5 模型。

注意:在大多数情况下,推荐使用针对 Intel 和 Linux 优化的模型,建议下载并部署该版本。

使用 Trained Models 页面进行下载

我们可以使用如下的命令来卸载已经安装好的模型:

复制代码
DELETE _ml/trained_models/.multilingual-e5-small?force=true

一旦被卸载,就会恢复到之前的样子:

在 Dev Console 中使用 trained models API

1)在 Kibana 中,进入 Dev Console。

2)通过运行以下 API 调用创建 E5 模型配置:

复制代码
PUT _ml/trained_models/.multilingual-e5-small
{
  "input": {
    "field_names": [
      "text_field"
    ]
  }
}

如果模型尚未下载,该 API 调用会自动启动模型下载。

3)使用 start trained model deployment API 并提供 deployment ID 来部署模型:

复制代码
POST _ml/trained_models/.multilingual-e5-small/deployment/_start?deployment_id=for_search

在隔离环境中部署 E5 模型

如果你想在隔离环境中安装 E5,你有以下选项:

  • 将模型文件放入所有 master-eligible 节点 config 目录内的某个目录中(适用于 multilingual-e5-small 和 multilingual-e5-small-linux-x86-64)

  • 使用 HuggingFace 安装模型(仅适用于 multilingual-e5-small 模型)

模型文件

对于 multilingual-e5-small 模型,你的系统中需要以下文件:

复制代码
https://ml-models.elastic.co/multilingual-e5-small.metadata.json
https://ml-models.elastic.co/multilingual-e5-small.pt
https://ml-models.elastic.co/multilingual-e5-small.vocab.json

对于优化版本,你的系统中需要以下文件:

复制代码
https://ml-models.elastic.co/multilingual-e5-small_linux-x86_64.metadata.json
https://ml-models.elastic.co/multilingual-e5-small_linux-x86_64.pt
https://ml-models.elastic.co/multilingual-e5-small_linux-x86_64.vocab.json

$ pwd
/Users/liuxg/elastic/elasticsearch-9.2.0/config/models
$ ls
multilingual-e5-small.metadata.json multilingual-e5-small.pt            multilingual-e5-small.vocab.json

使用基于文件的访问

对于基于文件的访问,请按照以下步骤操作:

  1. 下载模型文件

  2. 将文件放入 Elasticsearch 部署的 config 目录下的 models 子目录中。

  3. 通过在 config/elasticsearch.yml 文件中添加以下行,将你的 Elasticsearch 部署指向模型目录:

    复制代码
    xpack.ml.model_repository: file://${path.home}/config/models/
  4. 在所有 master-eligible 节点重复步骤 2 和步骤 3。

  5. 逐一重启 master-eligible 节点。

  6. 从主菜单进入 Trained Models 页面,或使用 Kibana 的全局搜索字段。你可以在训练模型列表中找到 E5。

  7. 点击Add trained model 按钮,选择你在步骤 1 下载并想要部署的 E5 模型版本,然后点击 Download。所选模型将从你在步骤 2 放置的模型目录中下载。

  8. 下载完成后,点击 Start deployment 按钮启动部署。

  9. 提供 deployment ID,选择优先级,并设置每个分配的 allocation 数量和线程数。

  10. 点击 Start

使用 HuggingFace 仓库

你可以通过将 eland_import_hub_model 脚本指向模型的本地文件,在受限或封闭网络中安装 multilingual-e5-small 模型。

对于离线安装,模型需要先在本地克隆,你的系统中需要安装 Git 和 Git Large File Storage

1)使用模型 URL 从 Hugging Face 克隆 E5 模型。

复制代码
git clone https://huggingface.co/intfloat/multilingual-e5-small

该命令会在 multilingual-e5-small 目录中生成模型的本地副本。

2)使用 eland_import_hub_model 脚本,并将 --hub-model-id 设置为克隆模型的目录来安装它:

复制代码
eland_import_hub_model \
      --url 'XXXX' \
      --hub-model-id /PATH/TO/MODEL \
      --task-type text_embedding \
      --es-username elastic --es-password XXX \
      --es-model-id multilingual-e5-small

如果你使用 Docker 镜像运行 eland_import_hub_model,必须绑定挂载模型目录,以便容器可以读取文件。

复制代码
docker run --mount type=bind,source=/PATH/TO/MODELS,destination=/models,readonly -it --rm docker.elastic.co/eland/eland \
    eland_import_hub_model \
      --url 'XXXX' \
      --hub-model-id /models/multilingual-e5-small \
      --task-type text_embedding \
      --es-username elastic --es-password XXX \
      --es-model-id multilingual-e5-small

一旦上传到 Elasticsearch,模型将使用 --es-model-id 指定的 ID。如果未设置,则模型 ID 将从 --hub-model-id 推导;空格和路径分隔符会被转换为双下划线 __。

免责声明

客户可以将第三方训练模型添加到 Elastic 进行管理。这些模型不属于 Elastic。虽然 Elastic 会根据文档支持与这些模型的集成性能,但你理解并同意 Elastic 对第三方模型或它们可能使用的底层训练数据不拥有控制权,也不承担任何责任。

本 E5 模型,如定义、托管、集成并与我们的其他 Elastic 软件一起使用,受我们的标准保修覆盖。

相关推荐
我爱鸢尾花几秒前
RNN公式推导、案例实现及Python实现
人工智能·python·rnn·深度学习·神经网络·算法
Coder-coco2 分钟前
选题管理|基于springboot + vue毕业设计选题管理系统(源码+数据库+文档)
java·数据库·vue.js·spring boot·后端·课程设计
i***58673 分钟前
自动驾驶---E2E架构演进
人工智能·架构·自动驾驶
二哈喇子!3 分钟前
如何在昇腾平台上部署与优化vLLM:高效推理与性能提升指南
人工智能
CV-杨帆3 分钟前
大模型生成(题目)安全
人工智能
SmartBrain4 分钟前
思考:用信任创造共同的远方
人工智能·华为·创业创新
愤怒的可乐4 分钟前
从零构建大模型智能体:实现可扩展工具系统
人工智能·大模型·智能体框架
汽车仪器仪表相关领域5 分钟前
PSN-1:氮气加速 + 空燃比双控仪 ——NOS 系统的 “安全性能双管家”
大数据·linux·服务器·人工智能·功能测试·汽车·可用性测试
长河8 分钟前
Record-API 性能优化实战:从“锁”到“快”的深度治理
数据库·性能优化
lucky_syq9 分钟前
深入Spark核心:Shuffle全剖析与实战指南
大数据·分布式·python·spark