PostgreSQL是多进程,pg_jieba的字典数据在每个进程中都加载了比较耗费内存,个人觉得字典数据应该加载在share_buffers中.
使用字典中不存在的关键字"新华三" 证明如下:
1 启动二个psql客户端,分别为A和B,在A和B中分别执行
            
            
              sql
              
              
            
          
          select to_tsvector('public.jiebacfg', '新华三');
        输出,A和B结果完全相同
            
            
              bash
              
              
            
          
             to_tsvector
-----------------
 '三':2 '新华':1
(1 行记录)
        2 添加关键字
在服务器上修改文件jieba_user.dict
            
            
              bash
              
              
            
          
          sudo vim jieba_user.dict
        在用户字典中添加关键字"新华三"
            
            
              bash
              
              
            
          
          云计算
韩玉鉴赏
蓝翔 nz
区块链 10 nz
新华三
        3 终端A
            
            
              sql
              
              
            
          
          --重新加载字典
select jieba_reload_dict();
select to_tsvector('public.jiebacfg', '新华三');
        终端A输出
            
            
              bash
              
              
            
          
           to_tsvector
-------------
 '新华三':1
(1 行记录)
        4 终端B
            
            
              sql
              
              
            
          
          --因为已经在终端A中加载过字典了,所以终端B中不再加载
select to_tsvector('public.jiebacfg', '新华三');
        终端B输出
            
            
              bash
              
              
            
          
             to_tsvector
-----------------
 '三':2 '新华':1
(1 行记录)
        终端A和终端B中的结果完全不同
5 解决方法:
1 重启服务器,但生产环境不允许这么做;
2 修改字典后在每个连接在开始分词之前都需要重新加载字典;