一、学习内容
研读nlp领域的经典论文
《LXMERT: Learning Cross-Modality Encoder Representations from Transformers》
《Improving Language Understanding by Generative Pre-Training》
model:Transformer
data set:text with long dependency
target task:QA,SSA(semantic similarity assessment),ED(entailment Denpendency),TC(text classification)
实现了很强的自然语言理解能力,使用Transformer对长连续文本的不同数据集进行无监督预训练,再在目标task上进行有监督微调,提高处理long-dependency文本的能力.
阅读白硕老师的“闲话语义(8),对“模态”进行更深一步的理解
使用stanfordnlp中的corenlp模型实现英文的NER
与牛润良师哥对HowNet中的动态角色进行初分类
二、困难
- 现有的哈工大,斯坦福的中文NER工具最多只能分为三类(Time,Organization,Person)要实现更细粒度的分类需要借助别的方法
- 对动态角色进行分类有需要进一步思考和考虑的地方
三、下阶段计划
- 继续研读经典论文
- 动态角色分类问题继续进行和完善
- 尝试实现中文的NER细分