CO-GAT:一种用于联合对话行为识别和情感分类的交互式图注意力网络----论文阅读笔记
论文链接https://www.aminer.cn/pub/5fe5bf3b91e011e85bd969e5
我是在深度之眼(deepshare)的直播中学习的这篇论文,很多观点来自于直播中讲师的ppt,该文章权当为一篇个人向的学习笔记, 如有错误地方,恳请大家留言指正,THX!! (一个chatbot,我认为要想使他真正实现智能,必须要赋予他人格, 不是在大量的语料库训练下得到的一种经验回答, 因为这样就会出现对于某些提问的回答非常精准,而一些又非常愚蠢的问题, 就像是诗人看到星空,想到的是把酒当歌; 哲学家看到星空,想到的可能是存在的意义; 画家看到星空,想到的可能是一簇鸢尾花. 一个人一生接触到的对话,文字可能真的没有机器训练的语料库,但不可否认,人的创造力是远远优于目前的chatbot的)
要点:
对话行为识别(DAR)和情感分类(SC)是两个相关任务
-
论文动机:
先前的情感分类任务,都无法将上下文信息(contextual information)和相互交互信息(mutual interaction information)这两个相关任务的关键因素共同考虑. -
对话问答系统
(图片来源: b站深度之眼) -
输入输出:
输入用户和系统的对话,输出每个句子对应的act, sentiment标签 -
成果:
首次尝试同时合并上下文信息和相互交互信息
提出了一个协作交互的图注意力网络,其中跨任务连接和跨话语连接 -
语料库
Mastodon语料库的对话样本的摘录,每个话语都有一个对应的DA标签和一个情感标签。 (DA代表对话法)。 蓝色部分代表上下文信息,红色部分代表相互交互信息,而黄色部分代表要预测的目标标签 -
模型框架
该框架由一个分层的说话者感知encoder(下图最左),一个基于图的堆叠交互层(下图中间
)和两个单独的decoder(下图最右)组成 -
损失函数: