ElasticSearch批处理

在刚才的新增当中,我们是一次新增一条数据。那么如果你将来的数据库里有数千上万的数据,你一次新增一个,那得多麻烦。所以我们还要学习一下批量导入功能。

也就是说批量的把数据库的数据写入索引库。那这里的需求是,首先利用mybatisplus去批量查询酒店数据,然后将查询到的酒店数据,也就是hotel把它转换成我们的hotelDoc文档类型。最后再利用我们的这个Bulk批处理方式实现批量新增:

java 复制代码
@Test
void testCreateHotelIndex() throws IOException{
//创建索引库 CreateIndexReqeust
//1、创建Request对象:
CreateIndexRequest request = new CreateIndexRequest("hotel");
//2、请求参数:
request.source(MAPPING_TEMPLATE, XContentType.JSON);
//3、发送请求
client.indices().create(request,RequestOptions.DEFAULT);
}

//1、创建DeleteIndexRequset
DeleteIndexReqeust reqeust = new DeleteIndexReqeust("hotel");
client.indices().delete(reqeust. ReqeustOptions.DEFAULT);

//判读索引库是否存在:
GetIndexReqeust request = new GetIndexRequest("hotel");

boolean exists = client.indices().exists(reqeust, RequestOptions.DEFAULT);





@Test
void testBulkRequest() throws IOException{

	List<Hotel> hotels = hoteService.list();
	BulkRequest request = new BulkRequest();
	for(Hotel hotel : hotels){
		HotelDoc hotelDoc = new HotelDoc(hotel);
		request.add(new IndexRequest("hotel"))
		             .id(hotelDoc.getId().toString())
		             .source(JSON.toJSONString(hotelDoc), XContentType.JSON);
	}
	//	 发送请求
	client.bulk(request,RequestOptions.DEFAULT);



}

用Stream+Map转换更优雅:

java 复制代码
@Test
void testBulkRequest() throws IOException {
    List<Hotel> hotels = hoteService.list();
    BulkRequest request = new BulkRequest();
    
    hotels.stream()
          .map(hotel -> new HotelDoc(hotel))
          .forEach(hotelDoc -> {
              try {
                  request.add(new IndexRequest("hotel")
                                .id(hotelDoc.getId().toString())
                                .source(JSON.toJSONString(hotelDoc), XContentType.JSON));
              } catch (IOException e) {
                  // Handle exception
                  e.printStackTrace();
              }
          });
          
    client.bulk(request, RequestOptions.DEFAULT);
}

其实是++++把多个 IndexRequest的请求合并到BulkRequest 对象里++++,然后一次性完成提交,这种就叫批处理,确实没有什么新东西, 就是把以前的那种新增的代码给它合到一起去提交了。

接下来我们就来学习第一种全文检索查询。全文检索查询它会对用户输入的内容做分词以后进行匹配。比较常见的用于这个搜索框的这种搜索

++++match和multi_match的区别是什么?一个是根据单字段查询,一个是根据多字段。而multi_match参与查询的字段越多,性能越差,建议利用copy to把多个要查的字段拷贝到一个字段当中++++

相关推荐
CeshirenTester8 小时前
计算机专业找工作别再乱投:100家常见目标公司,先按赛道分清楚,然后闭眼冲!
大数据·人工智能
Jeremy_Lee1238 小时前
Claude Code + OpenSpec + Everything Claude Code AI 协同开发实战指南
人工智能·elasticsearch·everything
Rubin智造社8 小时前
OpenClaw实操指南20|记忆系统实战:别让你的AI用完就忘,短期+长期记忆配置指南
大数据·人工智能·用户画像·长期记忆·记忆系统·memory.md·openclaw实操
李兆龙的博客8 小时前
从一到无穷大 #68 Agent Memory 全景:大模型智能体记忆机制的形态、动态与前沿
大数据·人工智能·算法
xcbrand8 小时前
地产建筑品牌策划公司哪家强
大数据·人工智能·python
biaotan10288 小时前
销售实用工具合集:全流程提效,轻松做好客户与业绩
大数据
武子康9 小时前
大数据-271 Spark MLib-基础线性回归详解:从原理到损失优化实战
大数据·后端·spark
切糕师学AI9 小时前
深入理解 Flink:现代实时数据处理引擎详解
大数据·flink
lifallen9 小时前
Flink Source / Sink Exactly-Once 边界分析
java·大数据·flink
AC赳赳老秦9 小时前
测试工程师:OpenClaw自动化测试脚本生成,批量执行测试用例
大数据·linux·人工智能·python·django·测试用例·openclaw