朴素贝叶斯法\贝叶斯分类器举例说明

举例说明

当我们使用朴素贝叶斯分类算法来进行文本情感分析时,我们可以考虑以下例子:

问题描述

我们想要自动分析一条社交媒体帖子的情感,即确定它是积极的、消极的还是中性的。

训练数据

我们有一些已经标记好情感的社交媒体帖子,每个帖子都包含一些文本内容和一个情感标签。以下是一些示例训练数据:

帖子文本 情感标签
"这个电影太好笑了,我笑翻了!" 积极
"今天的天气真差,让我心情不好。" 消极
"这家餐厅的食物一如既往地美味。" 积极
"我感到很平静和放松。" 中性
"这个产品的性能一般,不太满意。" 消极
"音乐会的表演精彩极了!" 积极

步骤1:计算先验概率

首先,我们需要计算每个情感类别的先验概率,即在没有任何文本信息的情况下,帖子是积极、消极或中性情感的概率。

  • P ( 积极 ) = 积极帖子数量 总帖子数量 = 3 6 = 0.5 P(\text{积极}) = \frac{\text{积极帖子数量}}{\text{总帖子数量}} = \frac{3}{6} = 0.5 P(积极)=总帖子数量积极帖子数量=63=0.5
  • P ( 消极 ) = 消极帖子数量 总帖子数量 = 2 6 = 0.333 P(\text{消极}) = \frac{\text{消极帖子数量}}{\text{总帖子数量}} = \frac{2}{6} = 0.333 P(消极)=总帖子数量消极帖子数量=62=0.333
  • P ( 中性 ) = 中性帖子数量 总帖子数量 = 1 6 = 0.167 P(\text{中性}) = \frac{\text{中性帖子数量}}{\text{总帖子数量}} = \frac{1}{6} = 0.167 P(中性)=总帖子数量中性帖子数量=61=0.167

步骤2:计算似然度

接下来,我们需要计算每个单词在不同情感类别中出现的似然度。假设每个单词的出现是独立的。

  • P ( "好笑" ∣ 积极 ) = "好笑"在积极帖子中出现的次数 积极帖子总单词数 = 1 9 ≈ 0.111 P(\text{"好笑"}|\text{积极}) = \frac{\text{"好笑"在积极帖子中出现的次数}}{\text{积极帖子总单词数}} = \frac{1}{9} \approx 0.111 P("好笑"∣积极)=积极帖子总单词数"好笑"在积极帖子中出现的次数=91≈0.111
  • P ( "差" ∣ 消极 ) = "差"在消极帖子中出现的次数 消极帖子总单词数 = 1 10 = 0.1 P(\text{"差"}|\text{消极}) = \frac{\text{"差"在消极帖子中出现的次数}}{\text{消极帖子总单词数}} = \frac{1}{10} = 0.1 P("差"∣消极)=消极帖子总单词数"差"在消极帖子中出现的次数=101=0.1

我们对每个单词都进行类似的计算。

步骤3:计算后验概率

现在,假设我们有一条新的帖子,文本是 "这个电影真差劲,浪费时间"。我们要计算这条帖子的情感,即它是积极、消极还是中性情感的后验概率。

  • P ( 积极 ∣ "这个电影真差劲,浪费时间" ) ∝ P ( "这个" ∣ 积极 ) ⋅ P ( "电影" ∣ 积极 ) ⋅ P ( "真差劲" ∣ 积极 ) ⋅ P ( "浪费时间" ∣ 积极 ) ⋅ P ( 积极 ) P(\text{积极}|\text{"这个电影真差劲,浪费时间"}) \propto P(\text{"这个"}|\text{积极}) \cdot P(\text{"电影"}|\text{积极}) \cdot P(\text{"真差劲"}|\text{积极}) \cdot P(\text{"浪费时间"}|\text{积极}) \cdot P(\text{积极}) P(积极∣"这个电影真差劲,浪费时间")∝P("这个"∣积极)⋅P("电影"∣积极)⋅P("真差劲"∣积极)⋅P("浪费时间"∣积极)⋅P(积极)
  • P ( 消极 ∣ "这个电影真差劲,浪费时间" ) ∝ P ( "这个" ∣ 消极 ) ⋅ P ( "电影" ∣ 消极 ) ⋅ P ( "真差劲" ∣ 消极 ) ⋅ P ( "浪费时间" ∣ 消极 ) ⋅ P ( 消极 ) P(\text{消极}|\text{"这个电影真差劲,浪费时间"}) \propto P(\text{"这个"}|\text{消极}) \cdot P(\text{"电影"}|\text{消极}) \cdot P(\text{"真差劲"}|\text{消极}) \cdot P(\text{"浪费时间"}|\text{消极}) \cdot P(\text{消极}) P(消极∣"这个电影真差劲,浪费时间")∝P("这个"∣消极)⋅P("电影"∣消极)⋅P("真差劲"∣消极)⋅P("浪费时间"∣消极)⋅P(消极)
  • P ( 中性 ∣ "这个电影真差劲,浪费时间" ) ∝ P ( "这个" ∣ 中性 ) ⋅ P ( "电影" ∣ 中性 ) ⋅ P ( "真差劲" ∣ 中性 ) ⋅ P ( "浪费时间" ∣ 中性 ) ⋅ P ( 中性 ) P(\text{中性}|\text{"这个电影真差劲,浪费时间"}) \propto P(\text{"这个"}|\text{中性}) \cdot P(\text{"电影"}|\text{中性}) \cdot P(\text{"真差劲"}|\text{中性}) \cdot P(\text{"浪费时间"}|\text{中性}) \cdot P(\text{中性}) P(中性∣"这个电影真差劲,浪费时间")∝P("这个"∣中性)⋅P("电影"∣中性)⋅P("真差劲"∣中性)⋅P("浪费时间"∣中性)⋅P(中性)

然后,我们比较这三个后验概率的大小,选择具有最大后验概率的情感类别作为预测结果。

为了计算后验概率,我们需要考虑一些额外的信息,如单词的似然度和先验概率,以及新的帖子文本。以下是一个计算 "这个电影真差劲,浪费时间" 帖子情感的示例:

我们首先计算每个情感类别(积极、消极、中性)的后验概率。为简化计算,我们使用贝叶斯定理的比例关系,不必计算分母,因为它对所有情感类别都是一样的。

1. 计算积极情感的后验概率:

P ( 积极 ∣ "这个电影真差劲,浪费时间" ) ∝ P ( "这个" ∣ 积极 ) ⋅ P ( "电影" ∣ 积极 ) ⋅ P ( "真差劲" ∣ 积极 ) ⋅ P ( "浪费时间" ∣ 积极 ) ⋅ P ( 积极 ) ∝ ( 0 ,因为"这个"在积极训练数据中没有出现 ) ⋅ 1 9 ⋅ 0 9 ⋅ ( 0 ,因为"浪费时间"在积极训练数据中没有出现 ) ⋅ 0.5 = 0 \begin{align*} P(\text{积极}|\text{"这个电影真差劲,浪费时间"}) &\propto P(\text{"这个"}|\text{积极}) \cdot P(\text{"电影"}|\text{积极}) \cdot P(\text{"真差劲"}|\text{积极}) \cdot P(\text{"浪费时间"}|\text{积极}) \cdot P(\text{积极}) \\ &\propto (0\text{,因为"这个"在积极训练数据中没有出现}) \cdot \frac{1}{9} \cdot \frac{0}{9} \cdot (0\text{,因为"浪费时间"在积极训练数据中没有出现}) \cdot 0.5 \\ &= 0 \end{align*} P(积极∣"这个电影真差劲,浪费时间")∝P("这个"∣积极)⋅P("电影"∣积极)⋅P("真差劲"∣积极)⋅P("浪费时间"∣积极)⋅P(积极)∝(0,因为"这个"在积极训练数据中没有出现)⋅91⋅90⋅(0,因为"浪费时间"在积极训练数据中没有出现)⋅0.5=0

2. 计算消极情感的后验概率:

P ( 消极 ∣ "这个电影真差劲,浪费时间" ) ∝ P ( "这个" ∣ 消极 ) ⋅ P ( "电影" ∣ 消极 ) ⋅ P ( "真差劲" ∣ 消极 ) ⋅ P ( "浪费时间" ∣ 消极 ) ⋅ P ( 消极 ) ∝ ( 0 ,因为"这个"在消极训练数据中没有出现 ) ⋅ 1 10 ⋅ 1 10 ⋅ ( 0 ,因为"浪费时间"在消极训练数据中没有出现 ) ⋅ 0.333 = 0 \begin{align*} P(\text{消极}|\text{"这个电影真差劲,浪费时间"}) &\propto P(\text{"这个"}|\text{消极}) \cdot P(\text{"电影"}|\text{消极}) \cdot P(\text{"真差劲"}|\text{消极}) \cdot P(\text{"浪费时间"}|\text{消极}) \cdot P(\text{消极}) \\ &\propto (0\text{,因为"这个"在消极训练数据中没有出现}) \cdot \frac{1}{10} \cdot \frac{1}{10} \cdot (0\text{,因为"浪费时间"在消极训练数据中没有出现}) \cdot 0.333 \\ &= 0 \end{align*} P(消极∣"这个电影真差劲,浪费时间")∝P("这个"∣消极)⋅P("电影"∣消极)⋅P("真差劲"∣消极)⋅P("浪费时间"∣消极)⋅P(消极)∝(0,因为"这个"在消极训练数据中没有出现)⋅101⋅101⋅(0,因为"浪费时间"在消极训练数据中没有出现)⋅0.333=0

3. 计算中性情感的后验概率:

P ( 中性 ∣ "这个电影真差劲,浪费时间" ) ∝ P ( "这个" ∣ 中性 ) ⋅ P ( "电影" ∣ 中性 ) ⋅ P ( "真差劲" ∣ 中性 ) ⋅ P ( "浪费时间" ∣ 中性 ) ⋅ P ( 中性 ) ∝ 1 10 ⋅ 1 10 ⋅ 0 10 ⋅ 1 10 ⋅ 0.167 ≈ 0 \begin{align*} P(\text{中性}|\text{"这个电影真差劲,浪费时间"}) &\propto P(\text{"这个"}|\text{中性}) \cdot P(\text{"电影"}|\text{中性}) \cdot P(\text{"真差劲"}|\text{中性}) \cdot P(\text{"浪费时间"}|\text{中性}) \cdot P(\text{中性}) \\ &\propto \frac{1}{10} \cdot \frac{1}{10} \cdot \frac{0}{10} \cdot \frac{1}{10} \cdot 0.167 \\ &\approx 0 \end{align*} P(中性∣"这个电影真差劲,浪费时间")∝P("这个"∣中性)⋅P("电影"∣中性)⋅P("真差劲"∣中性)⋅P("浪费时间"∣中性)⋅P(中性)∝101⋅101⋅100⋅101⋅0.167≈0

在这个示例中,所有情感类别的后验概率都接近于零。这是因为新的帖子中包含了一些单词,这些单词在训练数据中没有出现过,导致似然度为零。因此,根据这个模型,无法明确确定帖子的情感类别。这也显示了模型的限制,它依赖于训练数据中的单词出现情况。在实际应用中,更复杂的模型和更多的训练数据可以提高分类的准确性。

这就是朴素贝叶斯情感分析的简单示例。它使用文本中的单词似然度和先验概率来估计新帖子的情感类别。

完整版贝叶斯

当计算完整的贝叶斯定理时,我们需要考虑分母(证据) P ( 文本 ) P(\text{文本}) P(文本)。下面是完整版本的贝叶斯定理:

P ( 情感类别 ∣ 文本 ) = P ( 文本 ∣ 情感类别 ) ⋅ P ( 情感类别 ) P ( 文本 ) P(\text{情感类别}|\text{文本}) = \frac{P(\text{文本}|\text{情感类别}) \cdot P(\text{情感类别})}{P(\text{文本})} P(情感类别∣文本)=P(文本)P(文本∣情感类别)⋅P(情感类别)

其中:

  • P ( 情感类别 ∣ 文本 ) P(\text{情感类别}|\text{文本}) P(情感类别∣文本) 是给定文本情感类别的后验概率。
  • P ( 文本 ∣ 情感类别 ) P(\text{文本}|\text{情感类别}) P(文本∣情感类别) 是文本在给定情感类别下的似然度。
  • P ( 情感类别 ) P(\text{情感类别}) P(情感类别) 是情感类别的先验概率。
  • P ( 文本 ) P(\text{文本}) P(文本) 是文本的证据概率,也称为边缘似然度。

计算完整的后验概率需要计算分母 P ( 文本 ) P(\text{文本}) P(文本),这通常是一个非常复杂的任务,因为它涉及对所有可能的情感类别进行求和或积分,以获得总的证据概率。在实际应用中,通常会忽略分母,因为它对于不同情感类别的比较没有影响,只会影响后验概率的缩放,不影响最终的分类决策。

在情感分析中,我们通常会比较不同情感类别的后验概率,选择具有最大后验概率的情感类别作为预测结果,而不需要计算具体的概率值。这种方式称为贝叶斯分类器,它省略了分母,只关注分子部分,如下所示:

预测情感类别 = arg ⁡ max ⁡ 情感类别 P ( 情感类别 ∣ 文本 ) ∝ P ( 文本 ∣ 情感类别 ) ⋅ P ( 情感类别 ) \text{预测情感类别} = \arg\max_{\text{情感类别}} P(\text{情感类别}|\text{文本}) \propto P(\text{文本}|\text{情感类别}) \cdot P(\text{情感类别}) 预测情感类别=arg情感类别maxP(情感类别∣文本)∝P(文本∣情感类别)⋅P(情感类别)

因此,在实际情感分析应用中,通常使用贝叶斯分类器来进行预测,而不计算完整的后验概率。这种方法更加高效,并且通常足够满足分类任务的需求。

关于贝叶斯分类器

贝叶斯分类器是一种基于贝叶斯定理的分类方法,用于将数据点分为不同的类别。它的工作原理基于以下基本思想:根据已知的数据和先验概率,估计新数据点属于每个类别的后验概率,并选择具有最高后验概率的类别作为预测结果。

下面是贝叶斯分类器的基本步骤:

  1. 准备训练数据:首先,您需要一个带有标签的训练数据集,其中包括输入数据和相应的类别标签。这些标签指示了每个数据点属于哪个类别。例如,在情感分析任务中,训练数据包括文本数据和情感类别(积极、消极、中性)标签。

  2. 计算先验概率:对于每个可能的类别,计算该类别的先验概率,即在没有任何数据观察的情况下,一个数据点属于该类别的概率。通常,先验概率可以通过统计训练数据中每个类别的频率来估计。

  3. 计算似然度:对于每个特征或属性,计算在给定类别下该特征的似然度。似然度表示了在某个类别下观察到该特征的概率。对于朴素贝叶斯分类器,通常假设特征之间相互独立,这意味着似然度可以分别计算。

  4. 计算后验概率:对于新的、未知的数据点,使用贝叶斯定理来计算它属于每个类别的后验概率。后验概率表示了在考虑已知数据的情况下,一个数据点属于某个类别的概率。贝叶斯定理公式如下:

    P ( 类别 ∣ 数据 ) = P ( 数据 ∣ 类别 ) ⋅ P ( 类别 ) P ( 数据 ) P(\text{类别}|\text{数据}) = \frac{P(\text{数据}|\text{类别}) \cdot P(\text{类别})}{P(\text{数据})} P(类别∣数据)=P(数据)P(数据∣类别)⋅P(类别)

    在这个公式中, P ( 类别 ∣ 数据 ) P(\text{类别}|\text{数据}) P(类别∣数据) 是后验概率, P ( 数据 ∣ 类别 ) P(\text{数据}|\text{类别}) P(数据∣类别) 是似然度, P ( 类别 ) P(\text{类别}) P(类别) 是先验概率, P ( 数据 ) P(\text{数据}) P(数据) 是数据的证据概率。通常,我们只关心后验概率的相对大小,所以可以省略分母 P ( 数据 ) P(\text{数据}) P(数据)。

  5. 选择类别 :选择具有最高后验概率的类别作为预测结果。这通常通过比较不同类别的后验概率来完成。例如,如果 P ( 积极 ∣ 数据 ) > P ( 消极 ∣ 数据 ) P(\text{积极}|\text{数据}) > P(\text{消极}|\text{数据}) P(积极∣数据)>P(消极∣数据) 和 P ( 积极 ∣ 数据 ) > P ( 中性 ∣ 数据 ) P(\text{积极}|\text{数据}) > P(\text{中性}|\text{数据}) P(积极∣数据)>P(中性∣数据),则预测该数据点属于积极类别。

贝叶斯分类器的一个常见应用是文本分类,如情感分析、垃圾邮件检测等任务。在这些任务中,贝叶斯分类器可以使用文本特征(例如词频或 TF-IDF 值)来进行分类。朴素贝叶斯分类器是其中一种常见的变体,它假设特征之间相互独立,从而简化了计算。虽然朴素贝叶斯具有一些局限性,但在许多实际应用中表现良好。

关于∝

∝ 是一个数学符号,表示"与之成正比"或"与之成比例"。它通常用于表示两个量之间的关系,表明一个量随着另一个量的增加而增加,或者随着另一个量的减少而减少。

具体来说,符号∝ 表示两个变量之间的比例关系,但它不是一个具体的运算符号。通常,它用于描述一个变量与另一个变量的关系,表示它们之间的比例关系,而不是表示具体的数学运算。

例如,如果我们写成 A ∝ B,这意味着变量 A 与变量 B 成正比。如果 B 增加,A 也会增加,但我们不知道它们之间的具体比例关系,除非给出具体的比例常数。这种表示方式强调了变量之间的关系而不涉及具体的运算

拉普拉斯平滑

当使用朴素贝叶斯情感分析时,可以使用拉普拉斯平滑(Laplace smoothing,也称为加一平滑)来处理训练数据中没有出现的单词,以避免似然度为零的情况。拉普拉斯平滑会将所有单词的计数增加一个常数,以确保每个单词在每个情感类别中都有一个非零的计数。

首先,让我们计算每个单词在不同情感类别中的似然度,使用拉普拉斯平滑:

  • P ( "好笑" ∣ 积极 ) = "好笑"在积极帖子中出现的次数 + 1 积极帖子总单词数 + 总唯一单词数 = 1 + 1 9 + 11 ≈ 0.083 P(\text{"好笑"}|\text{积极}) = \frac{\text{"好笑"在积极帖子中出现的次数} + 1}{\text{积极帖子总单词数} + \text{总唯一单词数}} = \frac{1 + 1}{9 + 11} \approx 0.083 P("好笑"∣积极)=积极帖子总单词数+总唯一单词数"好笑"在积极帖子中出现的次数+1=9+111+1≈0.083
  • P ( "差" ∣ 消极 ) = "差"在消极帖子中出现的次数 + 1 消极帖子总单词数 + 总唯一单词数 = 1 + 1 10 + 11 ≈ 0.083 P(\text{"差"}|\text{消极}) = \frac{\text{"差"在消极帖子中出现的次数} + 1}{\text{消极帖子总单词数} + \text{总唯一单词数}} = \frac{1 + 1}{10 + 11} \approx 0.083 P("差"∣消极)=消极帖子总单词数+总唯一单词数"差"在消极帖子中出现的次数+1=10+111+1≈0.083

这里,总唯一单词数是训练数据中出现的所有不同单词的总数,包括在训练数据中没有出现的单词。

接下来,我们使用拉普拉斯平滑后的似然度来重新计算后验概率:

1. 计算积极情感的后验概率:

P ( 积极 ∣ "这个电影真差劲,浪费时间" ) ∝ P ( "这个" ∣ 积极 ) ⋅ P ( "电影" ∣ 积极 ) ⋅ P ( "真差劲" ∣ 积极 ) ⋅ P ( "浪费时间" ∣ 积极 ) ⋅ P ( 积极 ) ∝ ( 0 ,因为"这个"在积极训练数据中没有出现 ) ⋅ 1 + 1 9 + 11 ⋅ 0 + 1 9 + 11 ⋅ ( 0 ,因为"浪费时间"在积极训练数据中没有出现 ) ⋅ 0.5 ≈ 0 \begin{align*} P(\text{积极}|\text{"这个电影真差劲,浪费时间"}) &\propto P(\text{"这个"}|\text{积极}) \cdot P(\text{"电影"}|\text{积极}) \cdot P(\text{"真差劲"}|\text{积极}) \cdot P(\text{"浪费时间"}|\text{积极}) \cdot P(\text{积极}) \\ &\propto (0\text{,因为"这个"在积极训练数据中没有出现}) \cdot \frac{1 + 1}{9 + 11} \cdot \frac{0 + 1}{9 + 11} \cdot (0\text{,因为"浪费时间"在积极训练数据中没有出现}) \cdot 0.5 \\ &\approx 0 \end{align*} P(积极∣"这个电影真差劲,浪费时间")∝P("这个"∣积极)⋅P("电影"∣积极)⋅P("真差劲"∣积极)⋅P("浪费时间"∣积极)⋅P(积极)∝(0,因为"这个"在积极训练数据中没有出现)⋅9+111+1⋅9+110+1⋅(0,因为"浪费时间"在积极训练数据中没有出现)⋅0.5≈0

2. 计算消极情感的后验概率:

P ( 消极 ∣ "这个电影真差劲,浪费时间" ) ∝ P ( "这个" ∣ 消极 ) ⋅ P ( "电影" ∣ 消极 ) ⋅ P ( "真差劲" ∣ 消极 ) ⋅ P ( "浪费时间" ∣ 消极 ) ⋅ P ( 消极 ) ∝ ( 0 ,因为"这个"在消极训练数据中没有出现 ) ⋅ 1 + 1 10 + 11 ⋅ 1 + 1 10 + 11 ⋅ ( 0 ,因为"浪费时间"在消极训练数据中没有出现 ) ⋅ 0.333 ≈ 0 \begin{align*} P(\text{消极}|\text{"这个电影真差劲,浪费时间"}) &\propto P(\text{"这个"}|\text{消极}) \cdot P(\text{"电影"}|\text{消极}) \cdot P(\text{"真差劲"}|\text{消极}) \cdot P(\text{"浪费时间"}|\text{消极}) \cdot P(\text{消极}) \\ &\propto (0\text{,因为"这个"在消极训练数据中没有出现}) \cdot \frac{1 + 1}{10 + 11} \cdot \frac{1 + 1}{10 + 11} \cdot (0\text{,因为"浪费时间"在消极训练数据中没有出现}) \cdot 0.333 \\ &\approx 0 \end{align*} P(消极∣"这个电影真差劲,浪费时间")∝P("这个"∣消极)⋅P("电影"∣消极)⋅P("真差劲"∣消极)⋅P("浪费时间"∣消极)⋅P(消极)∝(0,因为"这个"在消极训练数据中没有出现)⋅10+111+1⋅10+111+1⋅(0,因为"浪费时间"在消极训练数据中没有出现)⋅0.333≈0

3. 计算中性情感的后验概率:

P ( 中性 ∣ "这个电影真差劲,浪费时间" ) ∝ P ( "这个" ∣ 中性 ) ⋅ P ( "电影" ∣ 中性 ) ⋅ P ( "真差劲" ∣ 中性 ) ⋅ P ( "浪费时间" ∣ 中性 ) ⋅ P ( 中性 ) ∝ 1 + 1 10 + 11 ⋅ 1 + 1 10 + 11 ⋅ 0 + 1 10 + 11 ⋅ 1 + 1 10 + 11 ⋅ 0.167 ≈ 0.002 \begin{align*} P(\text{中性}|\text{"这个电影真差劲,浪费时间"}) &\propto P(\text{"这个"}|\text{中性}) \cdot P(\text{"电影"}|\text{中性}) \cdot P(\text{"真差劲"}|\text{中性}) \cdot P(\text{"浪费时间"}|\text{中性}) \cdot P(\text{中性}) \\ &\propto \frac{1 + 1}{10 + 11} \cdot \frac{1 + 1}{10 + 11} \cdot \frac{0 + 1}{10 + 11} \cdot \frac{1 + 1}{10 + 11} \cdot 0.167 \\ &\approx 0.002 \end{align*} P(中性∣"这个电影真差劲,浪费时间")∝P("这个"∣中性)⋅P("电影"∣中性)⋅P("真差劲"∣中性)⋅P("浪费时间"∣中性)⋅P(中性)∝10+111+1⋅10+111+1⋅10+110+1⋅10+111+1⋅0.167≈0.002

现在,情感类别中性的后验概率略微高于零,而其他两个后验概率仍然接近零。根据这个模型,帖子的情感类别可能是中性。需要注意的是,拉普拉斯平滑帮助避免了似然度为零的情况,但结果仍然表明模型在这个例子中可能无法明确确定情感类别,因为文本中包含了一些训练数据中未见过的单词。

在实际应用中,情感分析模型可能需要更多的训练数据和更复杂的特征工程以提高准确性。此外,可以考虑使用其他算法和技术,如深度学习模型,以处理更复杂的文本情感分析任务。

相关推荐
EnochChen_1 分钟前
六大基础深度神经网络之RNN
人工智能·rnn·dnn
机器懒得学习5 分钟前
空中绘图板:用 Mediapipe 和 OpenCV 实现的创新手势识别应用
人工智能·opencv·计算机视觉
get_money_8 分钟前
代码随想录Day52 101. 孤岛的总面积,102. 沉没孤岛,103. 水流问题,104.建造最大岛屿。
java·开发语言·笔记·算法·深度优先·图论
武昌库里写JAVA14 分钟前
Golang内存管理与优化
数据结构·vue.js·spring boot·算法·课程设计
Ven%22 分钟前
llamafactory报错:双卡4090GPU,训练qwen2.5:7B、14B时报错GPU显存不足(out of memory),轻松搞定~~~
运维·服务器·人工智能·python·深度学习·机器学习·llama
亚马逊云开发者22 分钟前
Amazon Bedrock 实践 - 利用 Llama 3.2 模型分析全球糖尿病趋势
人工智能·python·机器学习
engchina24 分钟前
本地部署 LLaMA-Factory
人工智能·微调·llama·llama-factory
硕风和炜25 分钟前
【LeetCode: 3159. 查询数组中元素的出现位置 + 统计下标】
java·算法·leetcode
说私域27 分钟前
关键客户转化为会员的重要性及 “开源 AI 智能名片 2 + 1 链动模式商城小程序” 在其中的应用剖析
人工智能·小程序
c++初学者ABC30 分钟前
【基础】卒的遍历(DFS)
c++·算法