先说基础文本处理。字符串切分看起来简单,但中英文混合的场景下直接按空格split绝对要出事。推荐用OpenNLP的SimpleTokenizer或者Stanford CoreNLP的PTBTokenizer,特别是后者能智能识别英文缩略词和带标点的数字。比如处理"Dr. Zhang在2021.08买了I.B.M.股票"这种文本,传统拆分会把每个点都切开,而专业分词器能保留原始语义单元。
词性标注这块推荐Apache OpenNLP的POSTagger。训练好的模型支持40多种词性标签,初始化时需要加载bin格式的模型文件。实际使用时要注意内存管理,建议对长文本分段处理。最近遇到个坑是金融文本中的"PE"可能被标注为名词,但在语境中其实是市盈率指标,这种情况需要自定义规则补充处理。
命名实体识别方面,Stanford的NER模块识别准确率很高,支持七种实体类型。最近项目里需要识别医药领域实体,用他们的CRFClassifier在自己标注的3000条数据上微调后,F1值从0.62提升到0.89。要注意的是模型加载比较耗内存,生产环境最好做成Singleton模式。
句法分析推荐尝试Stanford Parser的依存关系分析功能。通过GrammaticalStructure接口能获取主谓宾等53种语法关系,对理解长文本结构特别有用。上周用这个功能实现了合同文档的关键条款提取,通过识别nsubj(主语)和dobj(宾语)关系链,准确率比正则匹配提升了两倍多。
情感分析现在有几种实现路径。传统做法是用Stanford CoreNLP的SentimentAnnotator,基于RNN模型对五级情感进行分类。我们在电商评论测试集上准确率约85%。更轻量的方案是调用LingPipe的DynamicLMClassifier,自带语义强度计算功能,适合需要量化情感强度的场景。
实际开发中建议用Maven统一管理这些工具包,注意版本兼容性问题。最近升级Stanford CoreNLP到4.4.0时发现部分API变更,特别是AnnotationPipeline的构造方式有调整。内存方面建议给JVM分配至少4G堆空间,处理百万级文本时启用多线程模式,我们用的ForkJoinPool并行处理速度提升了三倍左右。
最后提醒几个实践要点:首先一定要做文本清洗,我们团队写的TextSanitizer工具能有效去除特殊字符和编码错误;其次领域专有名词要准备用户词典,在医药项目中我们补充了5000个专业术语后实体识别准确率提升17%;另外可以考虑集成规则引擎Drools来处理业务特定的文本规则,比硬编码维护成本低很多。
这些方案都在实际生产环境验证过,特别适合需要高稳定性的大型Java项目。虽然调试过程比较费时,但一旦跑通后确实能扛住真实业务场景的考验。后续准备尝试结合深度学习模型,正在调研DJL框架在NLP任务上的表现,有兴趣的朋友可以一起交流。