【ES】使用日志记录

1、修改操作

1、要删除Elasticsearch索引的分区下的数据

<index_name>是要删除数据的索引名称。这个命令会删除该索引下的所有数据。

powershell 复制代码
POST /<index_name>/_delete_by_query
{
  "query": {
    "match_all": {}
  }
}

2、删除特定条件下的数据

要删除age字段值为30的数据

powershell 复制代码
POST /<index_name>/_delete_by_query
{
  "query": {
    "range": {
      "age": {
        "gte": 30,
        "lte": 40
      }
    }
  }
}

3、查询某个索引的所有内容

powershell 复制代码
curl -u es_admin:'123456' -XGET http://localhost:9200/noah_branch_orglog_20230101/_search?scroll=1m -H 'Content-Type: application/json' -d'{"query": {"match_all": {}}}' > aa.txt 

2、查询操作

1、分页查询并将结果导出到文件:

powershell 复制代码
curl -u es_admin:'123456' -XPOST http://localhost:9200/noah_branch_orglog_20230428/_search -H 'Content-Type: application/json' -d'{"from": 0,"size": 1000,"query": {"match_all": {}}}' > aa.txt

2、设置分页查询的上限(默认是10000,超过会报错):

powershell 复制代码
curl -u es_admin:'123456' -XPUT http://localhost:9200/noah_branch_orglog_20230101/_settings -H 'Content-Type: application/json' -d'{"max_result_window" : 2038160}'

3、查询某个索引下具体值:pretty以json格式展示:

powershell 复制代码
curl -u es_admin:'123456' -XGET http://localhost:9200/noah_branch_orglog_20230428/_doc/223.103.235.222?pretty 

4、指定索引统计(常用):

powershell 复制代码
curl -u es_admin:'123456' -XGET http://localhost:9200/noah_branch_orglog_20230509/_count?pretty
相关推荐
敲上瘾41 分钟前
Elasticsearch从入门到实践:核心概念到Kibana测试与C++客户端封装
大数据·linux·c++·elasticsearch·搜索引擎·全文检索
api_180079054601 小时前
请求、认证与响应数据解析:1688 商品 API 接口深度探秘
java·大数据·开发语言·mysql·数据挖掘
0和1的舞者4 小时前
网络通信的奥秘:网络层ip与路由详解(四)
大数据·网络·计算机网络·计算机·智能路由器·计算机科学与技术
WLJT1231231235 小时前
九寨:在山水间触摸生活的诗意
大数据·生活
Elastic 中国社区官方博客8 小时前
在 Elasticsearch 中使用 Mistral Chat completions 进行上下文工程
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
橙色云-智橙协同研发8 小时前
从 CAD 图纸到 Excel 数据:橙色云智橙 PLM 打造制造企业数字化协同新模式
大数据·功能测试·云原生·cad·plm·云plm·bom提取
喝可乐的希饭a9 小时前
Elasticsearch 的 Routing 策略详解
大数据·elasticsearch·搜索引擎
_李小白9 小时前
【OPENGL ES 3.0 学习笔记】延伸阅读:VAO与VBO
笔记·学习·elasticsearch
TDengine (老段)11 小时前
TDengine 字符串函数 CHAR 用户手册
java·大数据·数据库·物联网·时序数据库·tdengine·涛思数据
2501_9336707911 小时前
高职大数据技术专业需要的基础
大数据