
面筋
文章平均质量分 90
面筋记录
Finks_chen
这个作者很懒,什么都没留下…
展开
-
【面筋】NER技巧
【面筋】NER技巧文章目录【面筋】NER技巧trick 1:领域词典匹配trick 2:规则抽取trick 3:词向量选取:词向量 or 字向量?trick 4:特征提取器 如何选择?trick 5:专有名称 怎么 处理?trick 6:标注数据 不足怎么处理?trick 7:嵌套命名实体识别怎么处理7.1 什么是实体嵌套?7.2 与 传统命名实体识别任务的区别7.3 解决方法:7.3.1 方法一:序列标注7.3.2 方法二:指针标注7.3.3 方法三:多头标注7.3.4 方法四:片段排列trick 8:原创 2021-07-07 17:56:12 · 283 阅读 · 0 评论 -
【笔记】事件抽取
【笔记】事件抽取一、概念参考1. 什么是事件抽取?ACE定义:事件抽取式从一段描述文本(一般是句子级的)中抽取一些关键元素,根据ACE的定义,组成事件的元素包括:触发词,事件类型,论元和论元角色;D.Ahn首先提出将ACE事件抽取任务分成四个子任务:触发词检测、事件/触发词类型识别、事件论元检测和参数角色识别。我们使用ACE术语来介绍如下事件结构:「事件触发词」:Trigger, 表示事件发生的核心词,多为动词和特有名词;「事件类型」:最清楚地表达事件发生的主要词,一般指动词或名词。 A原创 2021-07-05 17:54:29 · 796 阅读 · 0 评论 -
【总结】知识图谱-关系抽取
【总结】知识图谱-关系抽取文章目录【总结】知识图谱-关系抽取一、序1.1 什么是关系抽取?1.2 关系抽取技术有哪些类型?1.3 常见的关系抽取流程是怎么做的?二、概念介绍2.1 模板匹配方法是指什么?有什么优缺点?2.2 远监督关系抽取是指什么?它有什么优缺点?2.3 什么是关系重叠?复杂关系问题?2.4 联合抽取是什么?难点在哪里?2.5 联合抽取总体上有哪些方法?各有哪些缺点?三、方案3.1 基于共享参数的联合抽取方法1)使用依存结构树:2)指针网络同时识别实体和关系3)Copy机制+seq2seq原创 2021-07-05 15:49:10 · 1014 阅读 · 0 评论 -
【面筋】关于Attention
【面筋】关于Attention一、seq2seq 篇1.1 seq2seq (Encoder-Decoder)是什么?介绍:seq2seq (Encoder-Decoder)将一个句子(图片)利用一个 Encoder 编码为一个 context,然后在利用一个 Decoder 将 context 解码为 另一个句子(图片)的过程 ;应用:在 Image Caption 的应用中 Encoder-Decoder 就是 CNN-RNN 的编码 - 解码框架;在神经网络机器翻译中 Encoder-原创 2021-06-17 14:26:00 · 121 阅读 · 0 评论 -
【面筋】关于集成学习
【面筋】关于集成学习文章目录【面筋】关于集成学习1、集成学习的基本思想?2、为什么集成思路有效?3、Boosting策略1) boosting的特点是什么?2)Boosting的流程?3)GBDT4)XgBoost4、Bagging策略1)bagging的特点是什么?2)bagging的基本思想3)bagging的基分类器如何选择?4)随机森林5、Stacking策略1)stacking的特点是什么?2)stacking的流程?7、常见问题1)为什么使用决策树作为基学习器?2)为什么不稳定的学习器更适合作原创 2021-06-17 10:32:14 · 121 阅读 · 0 评论 -
【面筋】神经网络推导
【面筋】神经网络推导文章目录【面筋】神经网络推导激活函数为什么要激活函数?而且还是非线性的激活函数?没了激活函数会怎样?常用的激活函数手推证明:sigmoid会导致其下层所有神经元的权重更新方向一致;手推证明:ReLU神经元死亡将导致权重无法更新;优化算法SGDSGD-MSGD-NAAdaGradRMSProp/AdaDeltaAdamNadam网络层BP算法CNNRNNLSTMGRUBatch Normalization:Dropout模型语言模型word2vecTransformerBertXLNet原创 2021-06-16 21:21:09 · 152 阅读 · 0 评论 -
【面筋】NLP面试问题和资料汇总
资源汇总:面试问答题目整理一下资料汇总,用作记录????DeepLearning-500-questions : https://github.com/km1994/DeepLearning-500-questions16.1 如何理解序列到序列模型?16.2 序列到序列模型有什么限制吗?16.3 如果不采用序列到序列模型,可以考虑用其它模型方法吗?16.4 如何理解词向量?16.5 词向量哪家好?16.6 解释一下注意力机制的原理?16.7 注意力机制是不是适用于所有场景呢?原创 2021-06-16 20:11:40 · 262 阅读 · 0 评论 -
【面筋】数据处理技巧
文章目录关于batch_size和learning_rate交叉验证1、什么是交叉验证?2、交叉验证的好处?3、交叉验证的方法1)留一法,leave one out (LOOCV)2) K折交叉验证 K-fold cross Validation脏数据处理------置信学习1、脏数据如何处理2、什么是置信学习?3、cleanLab使用1) 置信学习方法 怎么用?有什么开源框架?2)置信学习方法 的工作原理?3)参考数据标注-------主动学习1、 主动学习是什么?2、为什么需要主动学习?3、 主动学习.原创 2021-06-08 16:43:28 · 156 阅读 · 0 评论 -
【面筋】关于Python
【面筋】关于Python文章目录【面筋】关于Python一、什么是`*args` 和 `**kwargs`?1.1 为什么会有 *args 和 **kwargs?1.2 *args 和 **kwargs 的用途是什么?1.3 *args 是什么?1.4 **kwargs是什么?1.5 *args 与 **kwargs 的区别是什么?二、什么是装饰器?2.1 装饰器是什么?2.2 装饰器怎么用?三、Python垃圾回收(GC)3.1 垃圾回收算法有哪些?3.2 引用计数(主要)是什么?3.3 标记-清除是什原创 2021-06-08 13:34:15 · 1100 阅读 · 1 评论 -
【面筋】基础概念
【面筋】基础概念文章目录【面筋】基础概念正则化(Regularization)1、正则化 是什么?2、L0 正则化?3、L1 正则化(稀疏规则算法)4、L2 正则化(岭回归)4、dropoutNormalization1、归一化 是什么?2、归一化的方法3、哪些机器学习算法 需要 做归一化?4、哪些机器学习算法 不需要 做归一化?BN 和 LN1、为什么神经网络中要进行Normalization2、Batch Normalization是什么?3、Layer Normalization是什么?过拟合和欠拟原创 2021-06-08 13:01:00 · 194 阅读 · 0 评论 -
【面筋】关于实体识别
【面筋】关于实体识别文章目录【面筋】关于实体识别1)中文ner和英文ner的区别?2)中文基于字的实体识别有什么缺点?怎么改进?3)什么是词汇增强?4)为什么词汇增强对中文ner有效?5)实体识别有哪些方式?6)什么是嵌套实体识别?7)如何解决嵌套实体识别?1)中文ner和英文ner的区别?分词方式不同,英文使用空格可以准确分词,但中文分词有别去其他语言的分词方式,更复杂。分词的准确性对实体识别有影响,因此中文通常基于字;2)中文基于字的实体识别有什么缺点?怎么改进?中文ner通常视作一个序列标原创 2021-06-01 16:22:00 · 217 阅读 · 0 评论