作者:David Pilato
我最近在讨论论坛上收到一个问题,关于如何修改官方 Docker 镜像以提供一个现成的 Elasticsearch 集群,其中已经包含一些数据。
说实话,我不喜欢这个想法,因为你必须通过提 entrypoint.sh 的分叉版本来破解 Elasticsearch 服务的启动方式。 这将使你的维护和升级变得更加困难。
相反,我发现使用其他解决方案来实现相同的目标会更好。
设置问题
首先,我们将考虑使用 Elasticsearch Docker 镜像并遵循文档:
markdown
1. docker pull docker.elastic.co/elasticsearch/elasticsearch:8.7.0
2. docker network create elastic
3. docker run --name es01 --net elastic -p 9200:9200 -it docker.elastic.co/elasticsearch/elasticsearch:8.7.0
请注意,我们没有在此处挂载 data 目录,因此该集群的数据将是短暂的,并且一旦节点关闭就会消失。 启动后,我们可以使用生成的密码检查它是否运行良好:
arduino
curl -s -k -u elastic:CHANGEME https://localhost:9200 | jq
请使用在安装时候显示的 Elasticsearch 密码来替换上面的 CHANGEME。上面的命令给出:
bash
`
1. {
2. "name": "697bf734a5d5",
3. "cluster_name": "docker-cluster",
4. "cluster_uuid": "cMISiT__RSWkoKDYql1g4g",
5. "version": {
6. "number": "8.7.0",
7. "build_flavor": "default",
8. "build_type": "docker",
9. "build_hash": "09520b59b6bc1057340b55750186466ea715e30e",
10. "build_date": "2023-03-27T16:31:09.816451435Z",
11. "build_snapshot": false,
12. "lucene_version": "9.5.0",
13. "minimum_wire_compatibility_version": "7.17.0",
14. "minimum_index_compatibility_version": "7.0.0"
15. },
16. "tagline": "You Know, for Search"
17. }
`![](https://csdnimg.cn/release/blogv2/dist/pc/img/newCodeMoreWhite.png)
因此,我们希望有一个可用的数据集。 让我们采用我在演示 Elasticsearch 时经常使用的示例数据集:人员数据集。 我创建了[一个生成器](github.com/dadoonet/in...) 来创建一些假数据。
首先,让我们下载注入器:
bash
wget https://repo1.maven.org/maven2/fr/pilato/elasticsearch/injector/injector/8.7/injector-8.7.jar
然后我们将使用以下选项在磁盘上生成数据集:
bash
1. mkdir data
2. java -jar injector-8.7.jar --console --silent > data/persons.json
我们有 1000000 个 json 文档,数据集如下所示:
ruby
1. head -2 data/persons.json
3. {"name":"Charlene Mickael","dateofbirth":"2000-11-01","gender":"female","children":3,"marketing":{"cars":1236,"shoes":null,"toys":null,"fashion":null,"music":null,"garden":null,"electronic":null,"hifi":1775,"food":null},"address":{"country":"Italy","zipcode":"80100","city":"Ischia","countrycode":"IT","location":{"lon":13.935138341699972,"lat":40.71842684204817}}}
4. {"name":"Kim Hania","dateofbirth":"1998-05-18","gender":"male","children":4,"marketing":{"cars":null,"shoes":null,"toys":132,"fashion":null,"music":null,"garden":null,"electronic":null,"hifi":null,"food":null},"address":{"country":"Germany","zipcode":"9998","city":"Berlin","countrycode":"DE","location":{"lon":13.164834451298645,"lat":52.604673827377155}}}
使用 shell 脚本
我们这里有 100 万个文档,因此我们无法真正使用批量请求来发送它。 我们需要:
bash
1. #!/bin/bash
2. ELASTIC_PASSWORD=CHANGEME
3. mkdir tmp
4. echo "Split the source in 10000 items"
5. split -d -l10000 ../data/persons.json tmp/part
6. BULK_REQUEST_FILE="tmp/bulk_request.ndjson"
7. FILES="tmp/part*"
8. for f in $FILES
9. do
10. rm $BULK_REQUEST_FILE
11. echo "Preparing $f file..."
12. while read p; do
13. echo -e '{"index":{}}' >> $BULK_REQUEST_FILE
14. echo -e "$p" >> $BULK_REQUEST_FILE
15. done <$f
16. echo "Calling Elasticsearch Bulk API"
17. curl -XPOST -s -k -u elastic:$ELASTIC_PASSWORD https://localhost:9200/person/_bulk -H 'Content-Type: application/json' --data-binary "@$BULK_REQUEST_FILE" | jq '"Bulk executed in \(.took) ms with errors=\(.errors)"'
18. done
有关脚本输入文档的方法,你也可以参考文章 "Elasticsearch:如何使用 shell 脚本来写入数据到 Elasticsearch 中"。
这基本上打印:
markdown
1. Preparing tmp/part00 file...
2. Calling Elasticsearch Bulk API
3. "Bulk executed in 1673 ms with errors=false"
4. Preparing tmp/part01 file...
5. Calling Elasticsearch Bulk API
6. "Bulk executed in 712 ms with errors=false"
7. ...
8. Preparing tmp/part99 file...
9. Calling Elasticsearch Bulk API
10. "Bulk executed in 366 ms with errors=false"
在我的机器上,运行它需要 8 分钟多。 大部分时间都花在编写批量请求上。 可能还有很大的改进空间,但我必须承认我不太擅长编写 shell 脚本。 哈? 你已经猜到了吗? 😅
使用logstash
Logstash 可以完成与我们手动完成的类似工作,但还提供更多功能,例如错误处理、监控,我们甚至不需要编写代码... 我们将在这里再次使用 Docker:
bash
docker pull docker.elastic.co/logstash/logstash:8.7.0
让我们为此编写一个作业:
ini
1. input {
2. file {
3. path => "/usr/share/logstash/persons/persons.json"
4. mode => "read"
5. codec => json { }
6. exit_after_read => true
7. }
8. }
10. filter {
11. mutate {
12. remove_field => [ "log", "@timestamp", "event", "@version" ]
13. }
14. }
16. output {
17. elasticsearch {
18. hosts => "${ELASTICSEARCH_URL}"
19. index => "person"
20. user => "elastic"
21. password => "${ELASTIC_PASSWORD}"
22. ssl_certificate_verification => false
23. }
24. }
我们现在可以运行该作业:
ruby
1. docker run --rm -it --name ls01 --net elastic \
2. -v $(pwd)/../data/:/usr/share/logstash/persons/:ro \
3. -v $(pwd)/pipeline/:/usr/share/logstash/pipeline/:ro \
4. -e XPACK_MONITORING_ENABLED=false \
5. -e ELASTICSEARCH_URL="https://es01:9200" \
6. -e ELASTIC_PASSWORD="CHANGEME" \
7. docker.elastic.co/logstash/logstash:8.7.0
在我的机器上,运行它只需要不到 2 分钟。
使用 docker 撰写
你可以更轻松地使用 docker compose 命令来根据需要运行所有内容,并向用户公开一个可供使用的集群,而不是手动运行所有这些内容。 这是一个简单的 .env 文件:
ini
1. ELASTIC_PASSWORD=CHANGEME
2. STACK_VERSION=8.7.0
3. ES_PORT=9200
以及 docker-compose.yml:
yaml
1. version: "2.2"
2. services:
3. es01:
4. image: docker.elastic.co/elasticsearch/elasticsearch:${STACK_VERSION}
5. ports:
6. - ${ES_PORT}:9200
7. environment:
8. - node.name=es01
9. - cluster.initial_master_nodes=es01
10. - ELASTIC_PASSWORD=${ELASTIC_PASSWORD}
11. - bootstrap.memory_lock=true
12. ulimits:
13. memlock:
14. soft: -1
15. hard: -1
16. healthcheck:
17. test:
18. [
19. "CMD-SHELL",
20. "curl -s -k https://localhost:9200 | grep -q 'missing authentication credentials'",
21. ]
22. interval: 10s
23. timeout: 10s
24. retries: 120
25. logstash:
26. depends_on:
27. es01:
28. condition: service_healthy
29. image: docker.elastic.co/logstash/logstash:${STACK_VERSION}
30. volumes:
31. - type: bind
32. source: ../data
33. target: /usr/share/logstash/persons
34. read_only: true
35. - type: bind
36. source: pipeline
37. target: /usr/share/logstash/pipeline
38. read_only: true
39. environment:
40. - ELASTICSEARCH_URL=https://es01:9200
41. - ELASTIC_PASSWORD=${ELASTIC_PASSWORD}
42. - XPACK_MONITORING_ENABLED=false
我们仍然在 ../data 目录中保存有 person.json 文件。 它被安装为 /usr/share/logstash/persons/persons.json ,就像在前面的示例中一样。 因此,我们使用与之前相同的 pipeline/persons.conf 文件。 要运行它,我们现在只需输入:
docker compose up
并等待 with-compose-logstash-1 容器退出:
css
1. with-compose-logstash-1 | [2023-04-21T15:17:55,335][INFO ][logstash.runner ] Logstash shut down.
2. with-compose-logstash-1 exited with code 0
这表明我们的服务现在已准备好运行并完全加载了我们的示例数据集。
有关这个部分的内容,更多阅读请参考:数据集成的强大联盟:Elasticsearch、Kibana、Logstash、MySQL。
使用快照/恢复
你还可以使用创建快照 API 将 Elasticsearch 中的现有数据集备份到共享文件系统或 S3,然后使用 Restore Restore API 将其恢复到新集群。 假设你已经注册了一个名为 example 的存储库。 你可以使用以下命令创建快照:
bash
1. # We force merge the segments first
2. POST /person/_forcemerge?max_num_segments=1
4. # Snapshot the data
5. PUT /_snapshot/sample/persons
6. {
7. "indices": "person",
8. "include_global_state": false
9. }
因此,无论何时启动新集群,你都可以使用以下命令恢复快照:
bash
POST /_snapshot/sample/persons/_restore
你只需要小心使用此方法,当你将其升级到新的主要版本时,你拥有的快照仍然可以在集群中恢复。 例如,如果你使用版本 6.3 创建了快照,则无法在 8.2 中还原它。 有关更多详细信息,请参阅快照索引兼容性。 但好消息! 借助存档索引,Elasticsearch 现在能够访问较旧的快照存储库(返回到版本 5)... 你只需要了解一些限制即可。 为了保证你的快照始终完全兼容,你可能需要使用相同的脚本使用最新版本再次创建索引快照。 请注意,在这种情况下,Force Merger API 调用很重要,因为它将使用最新的 Elasticsearch/Lucene 版本重写所有段。
使用已挂载的目录
还记得我们启动集群时的情况吗?
css
docker run --name es01 --net elastic -p 9200:9200 -it docker.elastic.co/elasticsearch/elasticsearch:8.7.0
我们没有绑定挂载 data 和 config 目录。 但实际上我们可以这样做:
javascript
docker run --name es01 --net elastic -p 9200:9200 -it -v persons-data:/usr/share/elasticsearch/data -v persons-config:/usr/share/elasticsearch/config docker.elastic.co/elasticsearch/elasticsearch:8.7.0
我们可以检查刚刚创建的 Docker volume:
kotlin
1. docker volume inspect persons-data persons-config
2. [
3. {
4. "CreatedAt": "2023-05-09T10:20:14Z",
5. "Driver": "local",
6. "Labels": null,
7. "Mountpoint": "/var/lib/docker/volumes/persons-data/_data",
8. "Name": "persons-data",
9. "Options": null,
10. "Scope": "local"
11. },
12. {
13. "CreatedAt": "2023-05-09T10:19:51Z",
14. "Driver": "local",
15. "Labels": null,
16. "Mountpoint": "/var/lib/docker/volumes/persons-config/_data",
17. "Name": "persons-config",
18. "Options": null,
19. "Scope": "local"
20. }
21. ]
如果你想使用完全相同的命令行再次启动 Elasticsearch 节点,你可以稍后再次重用此挂载点。 如果需要与其他用户共享卷,可以将 /var/lib/docker/volumes/persons-config/ 和 /var/lib/docker/volumes/persons-data/ 中的数据备份到 /tmp/volume-backup:
然后你可以与其他用户共享 /tmp/volume-backup/persons.tgz 文件并让他们恢复它。
bash
1. docker volume create persons-config
2. docker volume create persons-data
3. docker run --rm -it -v /tmp/volume-backup:/backup -v /var/lib/docker:/docker alpine:edge tar xfz /backup/persons.tgz -C /
并再次启动容器:
javascript
docker run --name es01 --net elastic -p 9200:9200 -it -v persons-data:/usr/share/elasticsearch/data -v persons-config:/usr/share/elasticsearch/config docker.elastic.co/elasticsearch/elasticsearch:8.7.0
使用 Elastic Cloud
当然,你可以使用之前创建的快照来配置新的 Elasticsearch Cloud 实例,而不是自行启动和管理本地 Elasticsearch 实例。 以下代码假设你已经定义了 API key。
bash
1. POST /api/v1/deployments?validate_only=false
2. {
3. "resources": {
4. "elasticsearch": [
5. {
6. "region": "gcp-europe-west1",
7. "plan": {
8. "cluster_topology": [
9. {
10. "zone_count": 2,
11. "elasticsearch": {
12. "node_attributes": {
13. "data": "hot"
14. }
15. },
16. "instance_configuration_id": "gcp.es.datahot.n2.68x10x45",
17. "node_roles": [
18. "master",
19. "ingest",
20. "transform",
21. "data_hot",
22. "remote_cluster_client",
23. "data_content"
24. ],
25. "id": "hot_content",
26. "size": {
27. "resource": "memory",
28. "value": 8192
29. }
30. }
31. ],
32. "elasticsearch": {
33. "version": "8.7.1"
34. },
35. "deployment_template": {
36. "id": "gcp-storage-optimized-v5"
37. },
38. "transient": {
39. "restore_snapshot": {
40. "snapshot_name": "__latest_success__",
41. "source_cluster_id": "CLUSTER_ID"
42. }
43. }
44. },
45. "ref_id": "main-elasticsearch"
46. }
47. ],
48. "kibana": [
49. {
50. "elasticsearch_cluster_ref_id": "main-elasticsearch",
51. "region": "gcp-europe-west1",
52. "plan": {
53. "cluster_topology": [
54. {
55. "instance_configuration_id": "gcp.kibana.n2.68x32x45",
56. "zone_count": 1,
57. "size": {
58. "resource": "memory",
59. "value": 1024
60. }
61. }
62. ],
63. "kibana": {
64. "version": "8.7.1"
65. }
66. },
67. "ref_id": "main-kibana"
68. }
69. ]
70. },
71. "settings": {
72. "autoscaling_enabled": false
73. },
74. "name": "persons",
75. "metadata": {
76. "system_owned": false
77. }
78. }
只需将 CLUSTER_ID 替换为从中获取快照的源集群即可。 集群启动后,你就拥有了一个功能齐全的实例,可以在互联网上使用你想要的默认数据集。 完成后,你可以使用以下命令轻松关闭部署:
bash
POST /api/v1/deployments/DEPLOYMENT_ID/_shutdown
同样,只需将 DEPLOYMENT_ID 替换为你在创建部署时看到的部署 ID。
结论
与往常一样,对于 Elastic,特别是 Elasticsearch,你有多种方法可以实现你的目标。 我在这里列出了其中一些,但可能还有其他一些方法:
- 使用 Shell 脚本:你实际上不需要任何第三方工具,但这需要编写一些代码。 代码看起来很简单,只要偶尔运行一下就可以了。 如果你需要它更安全,例如具有捕获和重试功能,那么这将使你创建和维护更多代码。
- 使用 Logstash:它非常灵活,因为你还可以将数据发送到 Elasticsearch 之外的其他目的地,或者使用多个过滤器来修改/丰富源数据集。 启动速度有点慢,但出于测试目的,这不应该成为真正的问题。
- 使用 docker compose:我最喜欢的方法之一。 你只需运行 docker compose up 等,几分钟后就完成了。 但这可能需要时间和硬件资源。
- 使用快照/恢复:比以前的方法更快,因为数据已经建立索引。 但灵活性较差,因为快照需要与你要恢复到的集群兼容。 一般来说,我总是更喜欢再次注入数据,因为一切都是新鲜的,并且我可以从 Elasticsearch 和 Lucene 的所有改进中受益。
- 使用挂载目录:类似于快照,但更本地化。 老实说,我更喜欢使用 Elastic API,而不是手动挂载现有目录。 让 Elasticsearch 做它知道的事情让我感觉更安全。
- 使用 Elastic Cloud:我认为这是与其他人(例如客户或内部测试人员)共享数据集的最简单方法。 一切都已准备就绪,安全,可以通过适当的 SSL 证书使用。
根据你的品味和限制,你可以选择其中一种想法并根据你的需求进行调整。 如果你有其他好主意要分享,请在 Twitter 上告诉我们或讨论区。 许多很棒的想法/功能都来自社区。 分享你的!