公共安全标准网
(19)中华 人民共和国 国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202111640662.1 (22)申请日 2021.12.2 9 (71)申请人 绍兴兰红智能科技有限公司 地址 312000 浙江省绍兴 市柯桥区柯桥 街 道群贤路20 03号1105室 (72)发明人 徐嘉昊 张帆  (74)专利代理 机构 绍兴市寅越专利代理事务所 (普通合伙) 33285 代理人 潘敏 (51)Int.Cl. G06K 9/62(2022.01) G06F 16/215(2019.01) G06F 40/279(2020.01) G06F 40/30(2020.01) (54)发明名称 一种基于注意力和有效程度的BERT模型打 分方法 (57)摘要 本发明涉及打分方法技术领域, 具体涉及一 种基于注意力和有效程度的BERT模型打分方法, 包括以下步骤: (1)取待打分的数据集, 将数据集 进行有效程度的预处理, (2)在BERT模型的网络 层后, 引入注意力机制, (3)采用引入注意力机制 的BERT模型, 对预处理后的数据集进行打分处 理; 本发明针对待打分的数据集, 通过对数据清 洗, 能够有效的去除数据中的无关符号, 有效的 提升了数据集中数据的有效程度, 采用具有很强 特征抽取能力的BERT模型进行打分处理, 并在 BERT模型中引入注意力机制, 极大的提升了BERT 模型的性能, 可以关注句子中不同类别的语义信 息, 能够在提升注意力和有效程度的基础上, 有 效的实现 打分的准确性以及速度。 权利要求书1页 说明书4页 附图1页 CN 114330556 A 2022.04.12 CN 114330556 A 1.一种基于注意力和有效程度的BERT模型打 分方法, 其特 征在于, 包括以下步骤: (1)获取待打 分的数据集, 将数据集进行有效程度的预处 理; (2)在BERT模型的网络层后, 引入注意力机制; (3)采用引入注意力机制的BERT模型, 对预处 理后的数据集进行打 分处理。 2.根据权利要求1所述的一种基于注意力和有效程度的BERT模型打分方法, 其特征在 于, 在步骤(1)中, 对数据集进行有效程度的预处 理, 包括以下步骤: 11)对数据集中的数据清洗, 去除数据中的无关符号; 12)将清洗后的数据按照句子形式进行划分, 并在每条句子前后分别加上识别标识。 3.根据权利要求1所述的一种基于注意力和有效程度的BERT模型打分方法, 其特征在 于, 在步骤11)中, 数据清洗内容包括特殊标点符号、 空白字 符、 空格、 时间标识、 非 中文标点 符号以及将英文单词大写转 为小写。 4.根据权利要求1所述的一种基于注意力和有效程度的BERT模型打分方法, 其特征在 于, 在步骤12)中, 按照设定的数据长度, 将数据句子在长度范围内截断分割, 然后在每条句 子前后分别加上识别符号。 5.根据权利要求1所述的一种基于注意力和有效程度的BERT模型打分方法, 其特征在 于, 在步骤(2)中, 所述的注 意力机制是指分配给BERT模 型的网络层输出的每个上下文 特征 向量不同的权 重, 获取句子的全局语义信息 。 6.根据权利要求1所述的一种基于注意力和有效程度的BERT模型打分方法, 其特征在 于, 在步骤(3)中, 对预处 理后的数据集进行打 分处理, 包括以下步骤: 21)设输入的句子为S, 其含有t个字符, 且t在设定的数据长度内, 则将{[CLS], P1, P2, ..., Pt, [SEP]}作为BERT模型的输入序列, 其中, [CLS]为开始识别标识, [SEP]为结束识 别标识, Pt为该句子中的单个字符; 22)获取句子S的表示序列W =[W1, W2, W3, ..., Wm]; 23)将序列W=[W1, W2, W3, ..., Wm]作为BERT模型网络层的输入序列, 得到句子S在网络层 的输出序列K=[K1, K2, K3, ..., Km]; 24)引入注意力机制, 获取句子的全局语义信息, 即获取句子关系预测的向量M; 25)将整个句子的向量M放入到softmax分类器中, 对实体关系类型进行预测, 获取打分 结果。 7.根据权利要求6所述的一种基于注意力和有效程度的BERT模型打分方法, 其特征在 于, 在步骤24)中, 关系预测的向量M=KαT, 其中α =soft max(YTQ), Q=tan  m(M),Q为待学习 的参数矩阵。 8.根据权利要求6所述的一种基于注意力和有效程度的BERT模型打分方法, 其特征在 于, 在步骤2 5)中, 打分结果输 出公式为: G=argmaxJ(g/S), 其中, J(g/S)= softmax(QM+d), d为偏差向量, Q 为参数矩阵。权 利 要 求 书 1/1 页 2 CN 114330556 A 2一种基于注意力和有效 程度的BERT模型打分方 法 技术领域 [0001]本发明涉及打分方法技术领域, 具体涉及一种基于注意力和有效程度的B ERT模型 打分方法。 背景技术 [0002]随着媒体形式的改变和发展, 互联网中涌现了海量的文本数据, 为了使人们能够 精确、 快速的获取自己想要的信息。 目前文本题要生成技术按照其生成形式可分类为: 抽取 式与生成式。 在抽取式摘要生成技术中通常对原文档中所有句 子或词组, 根据人类语言特 征进行打分, 选择分值高且冗余度较小的句子直接组成摘要, 该方法实现起来较为简单, 但 是生成的题要往往存在语法错误、 句 子连贯性差等问题。 而生成式方法相比而言所生成的 摘要更符合人类撰写的标准, 且句式整洁、 可读性强, 因而备受研究者关注。 [0003]随着预训练语言模型在自然语言处理多项任务中取得良好的效果, 研究者们尝试 将预训练模型引入到摘要生成任务中。 但是目前使用于训练知识的模型所生成的中文题要 质量并不理想, 而且不能有效全面的表达出原文档的主 要信息。 [0004]综上所述, 研发一种基于注意力和有效程度的BERT模型打分方法, 仍是打分方法 技术领域中急需解决的关键问题。 发明内容 [0005]针对现有技术所存在的上述缺点, 本发明在于提供一种基于注意力和有效程度的 BERT模型打分方法, 本发明针对待打分的数据集, 通过对数据 清洗, 能够 有效的去除数据中 的无关符号, 有效的提升了数据集中数据的有效程度, 采用具有很强特征抽取能力的BERT 模型进行打分处理, 并在BERT模 型中引入注 意力机制, 极大的提升了BERT模 型的性能, 可以 关注句子中不同类别的语义信息, 能够在提升注意力和有效程度的基础上, 有效的实现打 分的准确性以及速度, 具有广泛的应用前 景。 [0006]为实现本发明的目的, 本发明提供了如下技 术方案: [0007]一种基于注意力和有效程度的BERT模型打 分方法, 包括以下步骤: [0008](1)获取待打 分的数据集, 将数据集进行有效程度的预处 理; [0009](2)在BERT模型的网络层后, 引入注意力机制; [0010](3)采用引入注意力机制的BERT模型, 对预处 理后的数据集进行打 分处理。 [0011]本发明进一步设置为: 在步骤(1)中, 对数据集进行有效程度的预处理, 包括以下 步骤: [0012]11)对数据集中的数据清洗, 去除数据中的无关符号; [0013]12)将清洗后的数据按照句子形式进行划分, 并在每条句子前后分别加上识别标 识。 [0014]本发明进一步设置为: 在步骤11)中, 数据清洗内容包括特殊标点符号、 空白字符、 空格、 时间标识、 非中文标点符号以及将英文单词大写转 为小写。说 明 书 1/4 页 3 CN 114330556 A 3

.PDF文档 专利 一种基于注意力和有效程度的BERT模型打分方法

文档预览
中文文档 7 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共7页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于注意力和有效程度的BERT模型打分方法 第 1 页 专利 一种基于注意力和有效程度的BERT模型打分方法 第 2 页 专利 一种基于注意力和有效程度的BERT模型打分方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 20:41:13上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。