技术栈
中文分词
G***T691
17 天前
数据库
·
postgresql
·
中文分词
PostgreSQL全文搜索教程,中文分词配置
**PostgreSQL全文搜索教程:中文分词配置**PostgreSQL,作为一款功能强大的开源关系型数据库管理系统,其全文搜索功能备受开发者青睐。对于需要处理大量文本数据的用户来说,如何高效地进行全文搜索成为了亟待解决的问题。本文将详细介绍如何在PostgreSQL中配置中文分词,以提升全文搜索的性能和准确性。
汗流浃背了吧,老弟!
17 天前
算法
·
中文分词
·
easyui
中文分词全切分算法
本文档详细介绍了中文分词全切分算法的实现原理和应用场景。该算法基于字典匹配和深度优先搜索(DFS),结合记忆化递归优化,能够找出给定文本在字典约束下的所有可能切分方式。全切分是中文分词的基础技术,为后续的最优切分选择、歧义消解等任务提供重要支持。
神的孩子都在歌唱
20 天前
elasticsearch
·
中文分词
·
jenkins
Elasticsearch 7.6 安装 Jieba 中文分词插件完整教程
前言 这是我在这个网站整理的笔记,有错误的地方请指出,关注我,接下来还会持续更新。作者:神的孩子都在歌唱
unicrom_深圳市由你创科技
22 天前
mysql
·
性能优化
·
中文分词
MySQL 全文索引进阶:中文分词配置 + 模糊查询性能优化
在中文业务场景中,“模糊查询” 是高频需求 —— 例如电商的 “商品名称包含‘手机壳’”、内容平台的 “文章正文含‘人工智能’”。传统的LIKE '%关键词%'在数据量超过 10 万行后会陷入性能瓶颈,而 MySQL 全文索引通过合理配置中文分词,可将查询效率提升 10-100 倍。本文详解中文分词插件配置、全文索引实战及性能优化技巧。
c469277027
2 个月前
中文分词
深入解析MySQLMVCC机制提升数据库并发性能的关键原理
在现代数据库系统中,高并发处理能力是衡量其性能的核心指标之一。MySQL作为最流行的开源关系型数据库,其在高并发场景下的卓越表现,很大程度上得益于一种称为多版本并发控制(MVCC,Multi-Version Concurrency Control)的机制。MVCC通过巧妙的版本管理,有效解决了传统锁机制带来的性能瓶颈,成为提升数据库并发性能的关键。
王伯安呢
3 个月前
python
·
百度
·
中文分词
·
jieba
·
新手教程
·
技术教程
Python实战:爬取百度热搜榜,制作动态可视化报告
今天,我将带大家用Python实现一个完整的项目:爬取百度热搜榜,并生成高颜值的柱状图和词云图。这个进阶版教程不仅能让你学会基础爬虫,还将深入数据可视化,让你轻松驾驭分词、配色和自定义图形,最终效果绝对让你眼前一亮!
AI浩
3 个月前
自然语言处理
·
中文分词
【面试题】 如何处理中文分词?
一句话金句: 跳过传统分词,让模型自己学。通俗解释:面试得分点:
BORN(^-^)
3 个月前
大数据
·
elasticsearch
·
中文分词
关于ES中文分词器analysis-ik快速安装
官方地址:https://github.com/infinilabs/analysis-ik插件安装(将链接最后的版本号换成当前ES版本号):
Mr.Entropy
3 个月前
大数据
·
elasticsearch
·
中文分词
elasticsearch中文分词器analysis-ik使用及修改分词器名称
针对analysis-ik我就不具体介绍了,我个人主要认为它的有点有:1.java开发,方便修改源码(比如文件内容加密,或者其他特定的分词处理)
playStudy
3 个月前
python
·
搜索引擎
·
github
·
全文检索
·
中文分词
·
solr
·
lucene
从0到1玩转 Google SEO
使用 application/ld+json 注入 Schema.org:行动项 : 每周检查 GSC 覆盖率报告,修复 404、重定向链、服务器错误。
搏博
3 个月前
windows
·
python
·
自然语言处理
·
flask
·
中文分词
基于Python3.10.6与jieba库的中文分词模型接口在Windows Server 2022上的实现与部署教程
该教程详细阐述了在Windows Server 2022上基于Python3.10.6与jieba库实现并部署中文分词模型接口的完整流程,涵盖技术栈(Python3.10.6、jieba、Flask、Waitress、Nginx、NSSM等)与环境准备(Python安装、虚拟环境配置、依赖包安装及服务器额外配置),深入解析jieba库的分词原理与功能,设计并实现了基础分词、词性标注、自定义词典、批量分词及服务状态等接口(含参数、返回格式与错误处理),提供直接部署(通过Waitress运行Flask应用、N
未来之窗软件服务
4 个月前
自然语言处理
·
中文分词
·
仙盟创梦ide
·
东方仙盟
自建知识库,向量数据库 体系建设(五)之 中文分词库 HanLP ——仙盟创梦IDE
在当今数字化和智能化飞速发展的时代,企业面临着海量文本数据的处理与分析需求。HanLP 作为一款功能强大的自然语言处理工具包,在中文分词方面表现卓越,为企业在建立自己的知识库、打造智能客服、构建智能产品库以及推动 AI 应用等诸多关键领域,提供了强有力的支持。
蹦蹦跳跳真可爱589
5 个月前
开发语言
·
人工智能
·
python
·
自然语言处理
·
中文分词
Python----NLP自然语言处理(中文分词器--jieba分词器)
文本语料在输送给NLP模型前,需要一系列的预处理工作,才能符合模型输入的要求。对于NLP来说,他学习一篇人类书写的文章不是整体的来学习,而是一个词一个词的来学习。所以文本预处理的第一个步骤就是对文本进行分词处理。(之前可能还有一些文本清洗的工作,比如去除特殊字符,清理掉不需要的特殊符号,统一大小写等等,但这不是NLP的重点。)
m0_64074356
5 个月前
python
·
华为od
·
中文分词
华为OD-2024年E卷-中文分词模拟器[200分] -- python
给定一个连续不包含空格的字符串,该字符串仅包含英文小写字母及英文标点符号(逗号、分号、句号),同时给定词库,对该字符串进行精确分词。 说明:
yvestine
6 个月前
自然语言处理
·
中文分词
·
规则方法
基于规则的自然语言处理
以规则形式表示语言知识,强调人对语言知识的理性整理(知识工程——词典-主谓宾规则)构词特点:还原时分两种情况,一种是变化有规律的通用规则,一种是变化无规律的个性规则。如went → \rightarrow → go就是典型的不规则动词还原举例。
周圣贤
6 个月前
中文分词
我的食物信使女友
第一章:初识那是一个普通的周三下午,阳光透过咖啡馆的玻璃窗洒在木质的桌子上,空气中弥漫着咖啡的香气和轻柔的爵士乐。我坐在角落的一个位置,手中捧着一本已经翻了几十页的小说,但心思却完全不在文字上。我的生活就像这杯已经冷却的拿铁,平淡无奇,缺乏波澜。就在这时,她出现了。她穿着一件简单的白色连衣裙,头发随意地扎成一个马尾,脸上带着一抹温暖的微笑。她走到柜台前,轻声点了一杯胡萝卜汁,然后优雅地转身,目光扫过整个咖啡馆,最终停在了我身上。我的心跳突然加速,仿佛被某种神秘的力量击中。她的眼神清澈而深邃,仿佛能看透我的
晨曦543210
6 个月前
自然语言处理
·
中文分词
中文分词与数据可视化02
jieba(结巴分词)是一个高效的中文分词工具,广泛用于中文自然语言处理(NLP)任务。它支持以下功能:
晨曦543210
6 个月前
信息可视化
·
中文分词
中文分词与数据可视化
中文分词是将连续的汉字序列切分成具有语义意义的词语的过程。例如:输入:"自然语言处理很有趣"输出:["自然语言", "处理", "很", "有趣"]
老马啸西风
7 个月前
人工智能
·
ai
·
nlp
·
中文分词
·
openai
·
deepseek
·
mcp
敏感词 v0.25.0 新特性之 wordCheck 策略支持用户自定义
敏感词核心 https://github.com/houbb/sensitive-word敏感词控台 https://github.com/houbb/sensitive-word-admin
真的睡不醒ovo
7 个月前
大数据
·
elasticsearch
·
中文分词
elasticsearch中文分词器插件下载教程
下载链接点这-->找到与自己的elasticsearch想对应的版本下载即可