studynote-20201106-20201119


一、学习内容

  1. 研读nlp领域的经典论文

    LXMERT: Learning Cross-Modality Encoder Representations from Transformers

    Improving Language Understanding by Generative Pre-Training

    model:Transformer

    data set:text with long dependency

    target task:QA,SSA(semantic similarity assessment),ED(entailment Denpendency),TC(text classification)

    实现了很强的自然语言理解能力,使用Transformer对长连续文本的不同数据集进行无监督预训练,再在目标task上进行有监督微调,提高处理long-dependency文本的能力.

  2. 阅读白硕老师的“闲话语义(8),对“模态”进行更深一步的理解

  3. 使用stanfordnlp中的corenlp模型实现英文的NER

  4. 与牛润良师哥对HowNet中的动态角色进行初分类

二、困难

  1. 现有的哈工大,斯坦福的中文NER工具最多只能分为三类(Time,Organization,Person)要实现更细粒度的分类需要借助别的方法
  2. 对动态角色进行分类有需要进一步思考和考虑的地方

三、下阶段计划

  1. 继续研读经典论文
  2. 动态角色分类问题继续进行和完善
  3. 尝试实现中文的NER细分

Author: WeiRuoHe
Reprint policy: All articles in this blog are used except for special statements CC BY 4.0 reprint polocy. If reproduced, please indicate source WeiRuoHe !
  TOC