私有知识库 Coco AI 实战(三):摄入 Elasticsearch 官方文档

相信经常使用 Elasticsearch 的小伙伴,难免要到 ES 官网查找资料,文档内容多难以查找不说,还有很多个版本,加上各种生态工具如 Filebeat、Logstash 头就更大了。今天我来介绍如何使用 Coco AI 快速搜索 Elasticsearch 官方文档。在之前的文章中,我们介绍了如何将 MongoDB 数据摄入到Coco AI 中实现检索,感兴趣的小伙伴可以点这里查看。

在之前的文章中,我们介绍过通过爬虫程序爬取 Blog 数据写入 Easysearch 集群的方法,详情请戳这里。这次我们在原来的框架下,新建立一个 es-docs 爬虫,修改下原来的代码就行了。

建立新爬虫

复制代码
cd infini_spiders/spiders
scrapy genspider es-docs www.elastic.co

会创建新的 es-docs.py 文件。

Connector & Datasource

之前用 Coco AI 管理平台创建过 Connector 和 Datasource,这次我们直接放到爬虫程序中,通过 Easyearch 的 API 创建,不是 Coco AI 的 API 大家不要混淆了,以后有机会再介绍通过 Coco AI 的 API 创建。

程序开始,我们先检查 Easysearch 集群 coco_connector 索引中是否已经存在 doc_id 为 elasticsearch 的文档,如果不存在就创建相应的 Connector 和 Datasource。如果你之前通过管理平台创建了 elasticsearch 的 Connector 和 Datasource,就改下查询判断条件。

复制代码
import scrapy
from pprint import pprint
from elasticsearch import Elasticsearch
import sys


def doc_exists(index, doc_id):
    return es.exists(index=index, id=doc_id)


# 连接到Elasticsearch
with Elasticsearch("https://192.168.56.102:9200",
                   http_auth=('admin', '56939c1f6527d1a0d51c'),
                   use_ssl=True,
                   verify_certs=False,
                   ssl_show_warn=False) as es:

    # 检查连接是否成功
    if not es.ping():
        print("Elasticsearch连接失败!")
        sys.exit(1)
    else:
        print("Elasticsearch连接成功!")

    # 示例:检查 ID=elasticsearch 的文档是否存在
    if not (doc_exists("coco_connector", "elasticsearch")):
        connector = {
            'name': 'elasticsearch connector',
            'category': 'website',
            'icon': 'font_hugo-web'
        }
        pprint("创建 elasticsearch connector...")
        response = es.create(index='coco_connector',
                             body=connector,
                             id='elasticsearch')
        if response['result'] == 'created':
            print("创建成功")
        #pprint(response['_id'])

        datasource = {
            'name': 'elasticsearch datasource',
            'id': 'elasticsearch',
            'type': 'connector',
            'connector': {
                'id': 'elasticsearch',
            },
            'sync_enabled': False,
            'enabled': True
        }
        pprint("创建 elasticsearch datasource...")
        response = es.create(index='coco_datasource',
                             body=datasource,
                             id='elasticsearch')
        if response['result'] == 'created':
            print("创建成功")

Elasticsearch Docs

创建完 Connector 和 Datasource 后,我们就可以去爬取 Elasticsearch 官方文档了。通过变量 version 定义要爬取的版本,从 start_url 开始,把所有的页面的文本都提取回来,形成 Coco AI 需要的格式,写入 Easysearch。

复制代码
class EsDocsSpider(scrapy.Spider):
    name = "es-docs"
    allowed_domains = ["www.elastic.co"]
    version = "7.10"
    base_url = "https://www.elastic.co/guide/en/elasticsearch/reference/" + version + "/"
    start_urls = [base_url + "index.html"]

    tags = ["elastic-docs"]
    type_ = "elastic docs"
    category = "Elasticsearch-docs" + '_' + version

    def parse(self, response):
        chapter_links = response.css('span.chapter a::attr(href)').getall()
        yield from response.follow_all(chapter_links, self.parse_blog)

        section_links = response.css('span.section a::attr(href)').getall()
        yield from response.follow_all(section_links, self.parse_blog)

        part_links = response.css('span.part a::attr(href)').getall()
        return response.follow_all(part_links, self.parse_blog)

    def parse_blog(self, response):
        title = response.css('h1.title::text').get()
        url = response.url
        all_text = response.css(
            'h2::text,p:not([class]) ::text,li ::text').getall()

        text = ' '.join(all_text)
        content = text.replace('\n', '')

        yield {
            'title': title,
            'tags': self.tags,
            'url': url,
            'type': self.type_,
            'content': content,
            'source': {
                "type": "connector",
                "name": "Elasticsearch datasource",
                "id": "elasticsearch"
            },
            'category': self.category
        }

ScrapyElasticSearch

继续使用上次的插件把数据写入 Easysearch 集群。修改 scrapy 配置文件 settings.py

复制代码
ELASTICSEARCH_SERVERS = ['http://192.168.56.102:8000']
ELASTICSEARCH_INDEX = 'coco_document'
# ELASTICSEARCH_INDEX_DATE_FORMAT = '%Y-%m-%d'
ELASTICSEARCH_TYPE = '_doc'
ELASTICSEARCH_USERNAME = 'admin'
ELASTICSEARCH_PASSWORD = '56939c1f6527d1a0d51c'

修改对应的连接信息和 INDEX 名称,这里我使用 INFINI Gateway 代理 Easysearch。

搜索数据

我已经爬取了 7.10 和 8.17 的官方文档。

相关推荐
全栈胖叔叔-瓜州1 分钟前
关于llamasharp 大模型多轮对话,模型对话无法终止,或者输出角色标识User:,或者System等角色标识问题。
前端·人工智能
坚果派·白晓明22 分钟前
AI驱动的命令行工具集x-cmd鸿蒙化适配后通过DevBox安装使用
人工智能·华为·harmonyos
GISer_Jing35 分钟前
前端营销技术实战:数据+AI实战指南
前端·javascript·人工智能
Dekesas96951 小时前
【深度学习】基于Faster R-CNN的黄瓜幼苗智能识别与定位系统,农业AI新突破
人工智能·深度学习·r语言
大佐不会说日语~1 小时前
Spring AI Alibaba 的 ChatClient 工具注册与 Function Calling 实践
人工智能·spring boot·python·spring·封装·spring ai
CeshirenTester2 小时前
Playwright元素定位详解:8种定位策略实战指南
人工智能·功能测试·程序人生·单元测试·自动化
世岩清上2 小时前
AI驱动的智能运维:从自动化到自主化的技术演进与架构革新
运维·人工智能·自动化
K2_BPM2 小时前
告别“单点智能”:AI Agent如何重构企业生产力与流程?
人工智能
TMT星球2 小时前
深业云从人工智能产业投资基金设立,聚焦AI和具身智能相关产业
人工智能
鼾声鼾语2 小时前
matlab的ros2发布的消息,局域网内其他设备收不到情况吗?但是matlab可以订阅其他局域网的ros2发布的消息(问题总结)
开发语言·人工智能·深度学习·算法·matlab·isaaclab