1.Explain Yourself! Leveraging Language Models for Commonsense Reasoning
Nazneen Rajani +2 authors R. Socher
2019, ACL
new dataset:CoS-E(Common sense Explanations)


首先通过CAGE(Commonsense Auto-generated Explanation)从Cos-E中生成解释,然后将问题Q,答案选择A以及之前生成的tokenE1,…,Ei-1训练出现存的标签E,将Q,{A1,A2,A3},{E0,…,En}输入CSRM(Commonsense Reasoning Model),推理答案A。

Reason推理
吧因为它们可以在推理过程中自动生成,为常识性问题的回答提供额外的上下文
Rationable是先预测后解释,Reason是先解释后预测(常识推理)
2.Cosmos QA: Machine Reading Comprehension with Contextual Commonsense Reasoning
Lifu Huang +2 authors Yejin Choi
2019, EMNLP/IJCNLP
dataset: a new dataset with 35588 reading comprehension problems that require reasoning about the causes and effects of events,the likely facts about people and objects in the scene,and hypotheticals and counterfactuals.
不同于只关注上下文事实和字面意思的阅读理解,该文在Cosmos QA的基础上创建出一种新的神经网络结构,为了理解人类日常叙事的多样化

正确答案在文本的任何地方都没有提到答案,需要进行上下文的推理才能找出正确答案

对问题进行分类

Input:文段:Paragraph,问题:Question,答案:Answer,使用 [CLS],P,[SEP],Q,[SEP],A,[SEP] 格式(CLS是分类符),通过计算来自BERT的segment.position embedding以及相关tokens进行初始化,再输入Hidden层计算出
[Hcls,Hp,Hq,Ha].
Multi-head Attention:
3.Abductive Commonsense Reasoning
Chandra Bhagavatula +7 authors Yejin Choi
2020, ICLR
dataset:ART(Abuductive Reasoning in Narrative Text)
Abductive Commonsense Reasoning(溯因推理)是对不完全情景的最合理解释或假设的推论。

对于观察到的O1,O2讲述的背后发生的故事进行推理,我们在ART数据集上仅仅在一对解释中进行选择。

O1: “Carl went to the store desperately searching for flflour tortillas for a recipe.”
O2: “Carl left the store very frustrated.”
incorrect h1 : “The cashier was rude”
correct h2 : “The store had corn tortillas, but not flflour ones.”
线性链和全连接模型针对上例的区别:
线性链:先看到O1,h1,h2都是看似可能的推断,再看到O2,Carl非常沮丧的离开商店的原因更有可能是h1,则推断错误。
全连接模型:结合O1中Carl的目标是fiflour tortillas和O2中Carl沮丧的结果,推断出h2更有可能。
4.Does It Make Sense? And Why? A Pilot Study for Sense Making and Explanation
Cunxiang Wang +3 authors Tian Gao
2019, ACLP

首先在两个自然语言陈述中选择哪个是有意义,哪个无意义,然后选择出陈述无意义的原因
5.COMET: Commonsense Transformers for Automatic Knowledge Graph Construction
Antoine Bosselut +4 authors Yejin Choi
2019, ACL

与许多用规范模板存储知识的传统KB相反,常识性KB只存储松散结构的知识开放文本描述。当深层预先训练的语言模型中的隐式知识被转移到常识知识图中生成显式知识时,常识图谱的模型成为可能。
