面向公开数据的联合标注多模态目标识别系统文献综述

 2022-11-28 17:03:59

互联网的高速发展带来了越来越多的非结构化文本数据,如何帮助人们理解并迅速获取文本中的知识成为了一个重要的问题,信息抽取技术的出现就是为了解决这个问题。事件抽取作为该信息抽取中重要的部分主要研究在非结构化文本中抽取出用户感兴趣的事件。目前针对篇章级事件抽取的研究较少,相反句子级的事件抽取已经比较成熟,因此利用句子级事件抽取的结果来完成篇章级事件抽取不失为一种可行的思路。仲伟峰等人在中文信息学报上发表的“基于联合标注和全局推理的篇章级事件抽取”中提出了一种篇章级事件抽取的方法,该方法就是在句子级事件抽取的基础上进行全局推断来完成篇章级事件抽取。该方法采用管道(pipeline)的方法将事件抽取分成三个部分:1,使用基于自注意力机制的序列标注模型对句子进行实体和事件的联合标注;2,采用多层感知机对事件描述中的实体进行分类,判断实体在该事件中所扮演的角色,及完成事件元素的识别(利用第一步联合标注后获得的句子中的实体和实体类型,事件触发词和事件类型,利用多层感知机获得实体在事件中扮演的角色);3,基于整数线性规划做全局推理。该方法成功的完成从篇章级的文本中抽取事件,不同于句子级事件抽取的细粒度结果,篇章级事件抽取更注重反映完整的事件信息,因此有更好的实用价值,但是由于采用pipeline的方法,不可避免的会带来误差的传递,同时导致整体性能不高。

在中文信息处理领域,词是最小的能够独立运用的有意义的语言单位,但是汉语书写时候是以字为基本书写单位,不存在分隔标记,因此进行汉语分词是一个基础性研究课题,这也是进行信息抽取等应用的关键环节。

目前,基于字的词位标注汉语分词技术已经取得了不错的进展,采用四词位的最大熵模型标注器进行汉语分词,以及使用六词位标注集和六特征模板集实现基于字标注的分词系统都取得了很好的分词效果。但是在某些领域的文本资料中,可能含有较多的英文词汇,缩写,数字等非汉字子串,因此于江德等在“一种基于字和子串联合标注的汉语分词方法”中提出了一种联合标注的分词方法,该方法将英文单词,编程语言中出现的语句命令等子串看作一个和汉字等同的整体来标注它的词位,使用B,M,E,S四词位标注集和条件随机场模型实现了基于字和子串的联合标注汉语分词。在利用条件随机场对词位标注进行建模时所采用的特征模板集是下列七个特征模板:,使用CRG 0.53工具包进行词位标注汉语分词。该方法对于含有较多英文单词,程序语句,英文缩写等非汉字字符的领域文本来说取得了比传统的基于字的词位标注汉语分词系统更好的性能,而对文学领域的文本则没有差别。

对于生物特征识别领域:属于同一个体的人脸和语音信息能够有效鉴别个体身份,具有潜在的语义关联特性,而目前的音视频说话人标注方法并未考虑不同模态之间的关联性。因此,柳欣等人发表的“结合有监督联合一致性自编码器的跨音视频说话人标注”中提出了三种模型来挖掘音视频异构特征之间的潜在关系,从而有效实现人脸和语音的跨模态相互标注。该模型首先利用卷积神经网络(CNN)对人脸图像进行特征提取,利用深度信念网(DBN)对语音数据进行判别性特征提取,接着在联合自编码器模型的基础上:通过加入有监督学习来加强对模态间相似性的保证,提出了有监督一致性神经网络(Super-Corr-NN)模型;将Super-Corr-NN模型和跨模态Core-AE模型结合得到新的有监督一致性联合自编码器模型(Super-Corr-AE);通过扩展Corr-AE的输出,使用不同模态的输入值,将Corr-AE 和Super-Corr-NN进行结合得到Super-Cross-AE模型;通过对Corr-Full-AE模型进行扩展并结合Super-Corr-NN模型,得到有监督的跨模态一致性语义全局模型 (Super-Full-AE)。实验表明,该文献中提出的人脸和语音深度特征提取方法能够判别性的揭示身份语义信息,并且有监督联合一致性自编码器模型能够挖掘不同模态之间关联特性,有效实现两种模态之间的灵活跨越。

机器学习方面,强化学习(RL)近年来被用在很多场景中,强化学习(RL)通过试错与环境交互获得策略的改进,其自学习和在线学习的特点使其成为机器学习研究的一个重要分支。但强化学习方法一直被维数灾难所困扰,即学习参数个数随状态、动作维数成指数级增长。为了克服这种维数灾,通过引入抽象机制将强化学习任务分解到不同层次上来分别实现,这样每层上的学习任务仅需在较小的空间中进行,从而大大减少了学习的数量和规模,这种方法称之为分层强化学习(HRL)。在彭志平等人发表的“分 层 强 化 学 习 研 究 进 展 *”中总结了三种常见的分层强化学习算法:OPTIONS,HAM,以及MAXQ。

基于option的分层强化学习的过程如下:假设agent当前在某个状态,选择一个option,通过这个option的策略,agent选择了一个动作或者另一个option。若选择了一个动作,则直接执行转移到下一个状态;若选择了另一个option,则用选择的新option继续选择,直到最后得出一个动作。

HAM的主要思想是将当前所在状态以及有限状态机的状态结合考虑,从而选择不同的策略。

MAXQ方法将核心 MDP M分解为子任务集{M0,M1,hellip;,Mn}以及将策略pi;分解为策略集合{pi;0,hellip;,pi;n},其中,pi;i是Mi的策略。子任务形成以M0为根节点的分层结构,称为任务图(Task Graph),解决了M0也就解决了M,要解决M0所采取的动作,则或者是执行动作原语,或者是执行能解决其它子任务的策略,如此依次调用。任务图中子任务子节点的顺序是任意的,执行时需要高层控制器依据其策略做出选择,任务图只约束了每层中能够做出的动作选择。

虽然在工业应用中RL可以作为大型系统的有效组成部分,但是目前而言大多数RL都只能应用在单智能体场景下,无需预测与建模其他智能体的行为。所以在当面临多个智能体的场景时,传统的RL学习算法就不再适用,针对这种情况,Ryan Lowe等人在Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments 提出了适合于多智能体混合场景下的演员-评论家算法,成功的实现了在混合合作-竞争环境中对多智能体进行训练。

在该策略方法中采用分散执行,集中训练的框架,使得policy能够使用额外的信息来缓解训练压力,在该方法中,作者等人提出了一种演员-评论家策略梯度算法的扩展,评论家增加了其他智能体策略的额外信息,而演员只接受自己本地的信息,当训练结束之后,只有local actor在执行阶段使用,以分散的方式执行,同样适用于合作-竞争环境。MADDPG采用集中式的学习,分布式的应用,允许使用一些额外的全局信息进行学习,只有在产生决策的时候只使用局部信息进行决策,所以在该方法中将critic扩展为可以利用其它智能体的策略进行学习,进一步改进就是每个智能体对其它智能体的策略进行一个函数逼近。结果证实本方法优于传统方法在多智能体混合合作-竞争环境上的算法,能够实现在混合合作-竞争环境下对多智能体进行训练学习。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。