【Python机器学习】NLP分词——词的“情感”

目录

VADER:一个基于规则的情感分析器

朴素贝叶斯


无论NLP流水线中使用的是单个词、n-gram、词干还是词元作为词条,每个词条都包含了一些信息,这些信息中一个重要部分是词的情感,即一个词所唤起的总体感觉或感情。这种度量短语或者文本块的情感的任务称为情感分析,是NLP中的一个常见应用。在很多公司中,NLP工程师要做的最主要的工作就是情感分析。

类似于研究/分析用户对商品的反馈,机器不会有人类的那种倾向性,也没有人类的情感触发器。而且,并不仅仅是人类才可以处理自然语言文本和从中提取信息甚至意义,NLP流水线也能够快速客观地处理大量用户反馈,而不会出现什么倾向性。同时,NLP流水线能够输入文本的正向性或者负向性以及任何其他的情感质量的数值等级。

另一个常见的情感分析应用是垃圾邮件或钓鱼消息的过滤。我们也希望自己的聊天机器人能够判断聊天信息中的情感以便能够合理地回复消息。甚至更重要的一点是:我们希望聊天机器人在输出语句之前能够知道该语句的情感倾向,从而引导机器人输出更加亲和、友好的语句。我们需要机器人能够度量要说的任何话的得体程度从而决定是否需要回复。

要度量一段文本的情感产生所谓的倾向性数值,我们希望NLP流水线和情感分析算法输出单个从-1到+1之间的浮点数。

有两种情感分词的方法,分别是:

  • 基于规则的算法,规则由人来撰写;
  • 基于机器学习的模型,模型是机器从数据中学习而得到的。

第一种情感分析的方法使用用户设计的规则(有时称为启发式规则)来度量文本的情感。一个常用的基于规则的方法是在文本中寻找关键词,并将每个关键词映射到某部字典或者映射上的数值得分或权重,例如这部字典可以是Python的dict。我们在字典中可以使用分词后的词干、词元或者n-gram词条,而不只是词。算法中的规则将迭加文档中每个关键词在字典中的情感得分。显然,在文本上运行我们的算法之前,我们必须要手工构建一步关键词及每个关键词的情感得分的字典。

第二中基于机器学习的方法利用一系列标注语句或者文档来训练机器学习模型以产生规则。机器学习的情感模型在经过训练以后能够处理输入文本并输出该文本的一个情感数值得分,该得分就像正向倾向性、垃圾程度和钓鱼程度一样。对于机器学习方法,需要大量标注好"正确"情感得分的文本数据。推文数据往往被用于这类方法,因为推文中的哈希标签往往可用于构建"自标注"的数据集。

VADER:一个基于规则的情感分析器

VADER算法时最早被成功提出的基于规则的情感分析算法,很多NLP包实现的是该算法的某种形式。NLTK包中的nltk.sentiment.vader实现了VADER算法。

下面是使用vaderSentiment的代码:

python 复制代码
from vaderSentiment.vaderSentiment import SentimentIntensityAnalyzer

sa=SentimentIntensityAnalyzer()
print(sa.lexicon)

上述代码呈现的是分词器最擅长处理的标点符合和表情符号,这样VADER才能更好地工作。如果在流水线中词干还原工具(或词形归并工具),需要将该工具也用于VADER词库,使单个词干或词元中的所有词的得分组合起来。

python 复制代码
print([(tok,score) for tok,score in sa.lexicon.items()])

在VADER定义的7500个词条中,只有3个包含空格,其中两个实际上是n-gram,另一个是表达"kiss"的表情符号。

python 复制代码
print(sa.polarity_scores(text="Python is very readable and it's great for NLP."))

VADER算法用3个不同的分数(正向、负向和中立)来表达情感极性的强度,然后将它们组合在一起得到一个复合的情感倾向性得分。

python 复制代码
print(sa.polarity_scores(text="Python is not a bad choice for most applications."))

下面看上述基于规则的方法在前面提到的语句上的应用结果如何:

python 复制代码
corpus=["Absolutely perfect! Love it! :-) :-) :-)",
        "Horrible! Completely useless. :(",
        "It was OK. Some good and some bad things."]
for doc in corpus:
    scores=sa.polarity_scores(doc)
    print('{:+}:{}'.format(scores['compound'],doc))

VADER的唯一不足在于,它只关注其词库中的7500个词条,而非文档中的所有词。

朴素贝叶斯

朴素贝叶斯模型视图从一系列文档集合中寻找对目标(输出)变量有预测作用的关键词。当目标变量是要预测的情感时,模型将寻找那些能预测该情感的词,朴素贝叶斯模型的一个好处是:其内部的系数会将词或词条映射为类似于VADER中的情感得分。只有这时,我们才不必受限于让人来决定这些分数应该是多少,机器将寻找任何其认为的"最佳"得分。

对于任一机器学习算法,首先必须要有一个数据集,即需要一些已经标注好正向情感的文本文档。nlpia包中有4个不同的情感数据集:

python 复制代码
from nlpia.data.loaders import get_data
movies=get_data('hutto_movies')
print(movies.head().round(2))
python 复制代码
print(movies.describe().round(2))

可以看到,该数据集中,对电影的评分区间在-4到+4之间。

下面使用分词器对所有电影评论文本进行切分,从而得到每篇评论文本的词袋,然后将他们放入DataFrame中:

python 复制代码
import pandas as pd
from nltk.tokenize import casual_tokenize
from collections import Counter
pd.set_option('display.width',75)
bags_of_words=[]
for text in movies.text:
    bags_of_words.append(Counter(casual_tokenize(text)))
df_bows=pd.DataFrame.from_records(bags_of_words)
df_bows=df_bows.fillna(0).astype(int)
print(df_bows.shape)
print(df_bows.head())

上述代码中,词袋表格可能会快速增长到很大的的规模,特别是在没有使用大小写归一化、停用词过滤、词干还原和词形归并过程时更是如此。在这里可以考虑插入上述降维工具观察对流水线的影响。

现在我们有了朴素贝叶斯模型所需要的所有数据,利用这些数据可以从自然语言文本中寻找那些预测情感的关键词:

python 复制代码
from sklearn.naive_bayes import MultinomialNB
nb=MultinomialNB()
nb=nb.fit(df_bows,movies.sentiment>0)
predicted_s=list(nb.predict_proba(df_bows)*8-4)
print(predicted_s[:9])
ps=[]
for i in range(len(predicted_s)):
    ps.append(list(predicted_s[i])[1])
movies['predicted_sentiment']=ps
movies['error']=(movies.predicted_sentiment-movies.sentiment).abs()
print(movies.error.mean().round(1))
movies['sentiment_ispositive']=(movies.sentiment>0).astype(int)
movies['predicted_ispositive']=(movies.predicted_sentiment>0).astype(int)
print(movies['''sentiment predicted_sentiment sentiment_ispositive predicted_ispositive'''.split()].head(8))
print((movies.predicted_ispositive == movies.sentiment_ispositive).sum()/len(movies))

可以看到,最终的点赞评级的正确率是93.44%。

只需要短短的几行代码,就可以构建一个不错非情感分析器。我们不需要像VADER一样构建一个包含7500个词及其对应情感得分的列表,而只需要给出一些文本及其标注。这就是机器学习和NLP的优势所在。

在另一种数据上,如果想和上面一样构建一个实际的情感分析器,要对训练数据进行分割。如果强行对所有的文本点赞或点差,那么一个随机猜测的MAE大概在4左右,因此,上面的情感分析器大概比随机猜测好一半:

python 复制代码
products=get_data('hutto_products')
bags_of_words=[]
for text in products.text:
    bags_of_words.append(Counter(casual_tokenize(text)))
df_product_bows=pd.DataFrame.from_records(bags_of_words)
df_product_bows=df_product_bows.fillna(0).astype(int)
df_all_bows=pd.concat([df_bows,df_product_bows],ignore_index=True)
#=df_bows.append(df_product_bows)
print(df_all_bows.columns)
df_product_bows=df_all_bows.iloc[len(movies):][df_bows.columns]
df_product_bows=df_product_bows.fillna(0).astype(int)
print(df_product_bows.shape)
print(df_bows.shape)

from sklearn.naive_bayes import MultinomialNB
nb=MultinomialNB()
nb=nb.fit(df_bows,movies.sentiment>0)
products['ispos']=(products.sentiment>0).astype(int)
products['predicted_ispositive']=nb.predict(df_product_bows.values).astype(int)
print(products.head())
print((products.predicted_ispositive==products.ispos).sum()/len(products))

因此,上述朴素贝叶斯模型在预测商品评论是否正向(即点赞)时表现得很糟糕。造成如此糟糕效果的一个原因是,利用casual_tokenize从商品文本中得到的词汇表中有2546个词条不在电影评论中。这个数目大约占电影评论分词结果的10%,这些词在朴素贝叶斯模型中不会有任何权重或者得分。另外,朴素贝叶斯模型也没有像VADER一样处理否定词。我们必须要将n-gram放在分词器中才能够将否定词(如"not"、"never")与其修饰的可能要用的正向词关联起来。

相关推荐
deephub23 分钟前
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本
人工智能·深度学习·transformer·大语言模型·注意力机制
搏博35 分钟前
神经网络问题之二:梯度爆炸(Gradient Explosion)
人工智能·深度学习·神经网络
KGback40 分钟前
【论文解析】HAQ: Hardware-Aware Automated Quantization With Mixed Precision
人工智能
电子手信1 小时前
知识中台在多语言客户中的应用
大数据·人工智能·自然语言处理·数据挖掘·知识图谱
不高明的骗子1 小时前
【深度学习之一】2024最新pytorch+cuda+cudnn下载安装搭建开发环境
人工智能·pytorch·深度学习·cuda
Chef_Chen1 小时前
从0开始学习机器学习--Day33--机器学习阶段总结
人工智能·学习·机器学习
搏博1 小时前
神经网络问题之:梯度不稳定
人工智能·深度学习·神经网络
databook1 小时前
『玩转Streamlit』--布局与容器组件
python·机器学习·数据分析
GL_Rain1 小时前
【OpenCV】Could NOT find TIFF (missing: TIFF_LIBRARY TIFF_INCLUDE_DIR)
人工智能·opencv·计算机视觉
shansjqun1 小时前
教学内容全覆盖:航拍杂草检测与分类
人工智能·分类·数据挖掘