【NLP_Stanford课堂】情感分析

一、简介

实例:

  • 电影评论、产品评论是positive还是negative
  • 公众、消费者的信心是否在增加
  • 公众对于候选人、社会事件等的倾向
  • 预测股票市场的涨跌

Affective States又分为:

  • emotion:短暂的情感,比如生气、伤心、joyful开心、害怕、羞愧、骄傲等
  • mood:漫无原因的低强度长时间持续的主观感觉变化,比如cheerful,gloomy阴郁、irritable急躁、
  • interpersonal stance:人际关系中对另一个人的立场,比如友好的、友善的
  • attitude:态度,比如喜欢、讨厌
  • personality trait:个性品质,比如鲁莽、焦虑

在情感分析中,我们针对的是attitude,分析的是:

  • attitude的持有者(来源)
  • attitude的目标(方面)
  • attitude的类型:
    • 来自一组类型:喜欢、爱、恨hate、重视value、渴望desire等
    • 简单的带权重的极性:积极、消极和中性,均带有强度
  • attitude的文本:句子或者整个文档

情感分析的任务:

  • 简单任务:文本的attitude是积极还是消极
  • 复杂任务:按照1-5对文本的attitude评级
  • 高级任务:检查attitude的来源、目标或者复杂的attitude类型

二、基准算法

【NLP_Stanford课堂】情感分析

任务:极性检测:一部IMDB上的电影评论是积极还是消极

数据:Polarity Data 2.0: http://www.cs.cornell.edu/people/pabo/movie-­review-­data

步骤:

  1. Tokenization:将文本切分成词汇
  2. 特征提取
  3. 使用分类器分类:
    • Naive Bayes
    • MaxEnt
    • SVM

1. Tokenization

需要应对:

  • HTML和XML标记
  • Twitter的标记(如,用户名、@)
  • 大写单词(有时候需要保留)
  • 电话号码、日期
  • 表情符号
  • 其他:【NLP_Stanford课堂】情感分析

2. 特征提取

有效特征:

  • 否定词
    • 把在not后面直到下一个标点符号之间的词都加上NOT_,如下:
    • 【NLP_Stanford课堂】情感分析
  • 只选择形容词或者所有词(所有词的效果更好)

3. 二值多项式朴素贝叶斯

主要思想:在情感分析或者其他文本分类的任务中,认定一个词是否出现比起出现的频次更重要

训练过程:

  • 将所有词的计数都重设为1
  • 从训练语料中提取词汇表
  • 【NLP_Stanford课堂】情感分析
  • 将每个文档中的词去重,只保留一个实例
  • 将所有属于docsj类别的文档都连接成一个文档得到Textj
  • 【NLP_Stanford课堂】情感分析

测试过程:

  • 将测试文档中的词去重
  • 【NLP_Stanford课堂】情感分析

交叉验证:

  • 将数据分成10组,每组内的测试集和训练集中positive和negative的比例一样
  • 用前9组数据分别训练9个分类器,将最后一组数据完全作为测试集
    • 以下是其中五组数据:
    • 【NLP_Stanford课堂】情感分析
  • 每组数据得到一个正确率,然后计算平均正确率

4. 难点

  • 有些评论很隐晦,难以被分类器察觉
  • 评论说的是原来自身的期望,然后说不符合期望,比如It should be brilliant,但是最后一句往往会说一句消极的话,所以语序也很重要

三、情感词典

词典中的每个词都存储了所属的情感。

1. 一般的情感词典

如下:

【NLP_Stanford课堂】情感分析

【NLP_Stanford课堂】情感分析

【NLP_Stanford课堂】情感分析

【NLP_Stanford课堂】情感分析

【NLP_Stanford课堂】情感分析

不同情感词典之间的同一个词极性的不一致性

【NLP_Stanford课堂】情感分析

2. 实例分析

分析IMDB中的每个词的极性

类别为1-10星,电影评论中都会附有星级评价,用这个来做类别,然后分析每个评论中的词,用以确定每个词的极性。

同一个词“bad”在不同的星级下计数如下:

【NLP_Stanford课堂】情感分析

可以发现1星最多,这也是因为1星的评价最多,所以我们不能直接用这个来确定极性,而是用如下计算:

最大似然估计:【NLP_Stanford课堂】情感分析

不同词之间的比较使用范围最大似然估计Scaled likelihood:【NLP_Stanford课堂】情感分析

具体分析不同词在不同星级下的范围最大似然估计如下:

【NLP_Stanford课堂】情感分析

可以发现amazing和awesome在高分星级上出现的比较多,而bad和terrible在低分星级上出现较多

其他情感特征:否定词(no, not)

【NLP_Stanford课堂】情感分析

可以发现否定词在低分星级上出现的比较多

四、建立情感词典

主要使用半监督学习

  • 先使用一个小的数据集,可能是
    • 一些带标签的实例
    • 一些手动建立的模式
  • 然后建立一个词典

1. 基准算法

基本思想:源于

【NLP_Stanford课堂】情感分析

  • 如果两个形容词用“and”连接,那么他们有相同的极性
  • 如果用“but"连接,那么他们有相反的极性

步骤:

  1. 手动标记一个包括1336个形容词的种子数据集,其中有657个词是positive,679个词是negative
  2. 通过连接的形容词来扩展种子数据集。
    • 比如使用Google:
    • 【NLP_Stanford课堂】情感分析
  3. 建立一个有监督的分类器,用以给每个词对分配极性相似性,即两个词极性上有多相似,主要使用count(AND)和count(BUT)。得到如下示意图:
    • 【NLP_Stanford课堂】情感分析
  4. 将上图聚类成两堆,分别为positive和negative,如下:
    • 【NLP_Stanford课堂】情感分析
  5. 输出极性的词典:positive和negative
    • 【NLP_Stanford课堂】情感分析

以上是针对形容词,下面介绍一种针对短语的词典的建立方法Turney Algorithm。

2. Turney算法

步骤类似,如下:

  1. 从评论中提取建立一个短语词典
    • 将有如下词性组合的两个词都作为一个短语:
      • 【NLP_Stanford课堂】情感分析,其中JJ表示形容词,NN表示名词,NNS表示复数形式的名词
  2. 学习每个短语的词性:使用点间互信息PMI,基本思想也是使用两个词“and”共现的词的计数
    • 【NLP_Stanford课堂】情感分析
    • 如何预估PMI:使用查询机制,类似于上述的搜索Google:
      • 【NLP_Stanford课堂】情感分析
    • 然后计算一个短语的极性:
      • 【NLP_Stanford课堂】情感分析
  3. 对一个评论,计算其中的短语的平均极性,再评级
    • 一个评论结果如下:
      • 【NLP_Stanford课堂】情感分析

Turney Algorithm结果如下:

【NLP_Stanford课堂】情感分析

可以发现Turney算法比起基准算法更准确,或许是因为

  • 短语比起单个词更准确
  • Turney算法可以学到特定领域的信息

3. 使用WordNet学习极性

WordNet:在线同义词词典

步骤:

  • 创建positive和negative的种子词典(“good”和“terrible”)
  • 找到各种子词典里的同义词和反义词
  • 重复以上步骤
  • 过滤

五、其他情感分析任务

上一篇:Go语言学习之1 基本概念、环境搭建、第一个Go程序


下一篇:五分钟搞懂 Linux 重点知识,傻瓜都能学会!