恭喜河海大学齐宜虎获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜河海大学申请的专利一种融合法条关键词的法条推荐方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114547237B 。
龙图腾网通过国家知识产权局官网在2025-04-08发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210078543.X,技术领域涉及:G06F16/334;该发明授权一种融合法条关键词的法条推荐方法是由齐宜虎;叶保留;徐良;张燕设计研发完成,并于2022-01-24向国家知识产权局提交的专利申请。
本一种融合法条关键词的法条推荐方法在说明书摘要公布了:本发明提供了一种融合法条关键词的法条推荐方法,包括如下步骤:步骤1,构建一个法条关键词表;步骤2,对数据集中的案件事实描述进行处理,将处理后的案件事实描述与该案件的法条关键词进行向量表示后融合,通过神经网络模型进行二分类建模,训练生成分类模型;步骤3,对用户输入的案件事实描述进行处理;步骤4,将处理后的案件事实描述和抽取出的法条关键词进行联合编码后,输入到步骤2训练好的分类模型中,分类模型的输出即为该案件事实描述所涉及的相关法条。采用本发明方法能够提高法条推荐的效果。
本发明授权一种融合法条关键词的法条推荐方法在权利要求书中公布了:1.一种融合法条关键词的法条推荐方法,其特征在于,包括如下步骤:步骤1,构建一个法条关键词表;步骤2,构建成一个以往案例查找库,将词嵌入后的案件事实描述保存在一个字典中,用于相似案例查找,字典的键key是一个案件事实描述向量,值value为相关法条;步骤3:对用户输入的案件事实描述进行处理,根据处理后的案件事实描述从以往案例查找库中查找相似案例,将相似案例的法条根据规则进行排序,选取前k个相似案例的法条作为备选法条集,根据法条关键词表抽取出这k个法条的关键词;步骤4,根据用户输入的案件事实描述,通过步骤3抽取出法条关键词,将处理后的案件事实描述和抽取出的法条关键词进行联合编码后,输入到一个全连接层做法条分类,全连接层的输出即为该案件事实描述所涉及的相关法条;步骤2包括:将数据集中的案件事实描述全部向量化表示,即对每条数据中的案件事实描述T进行向量化编码;步骤2具体包括以下步骤:步骤2-1:首先将案件事实描述T进行分词、去除停用词操作,在经过分词去除停用词后由一系列单词w1,w2,...,ws组成,ws表示第s个单词,即T={w1,w2,w3,...,ws},将每个单词转化为词向量的形式xi:xi=Ewi其中,E∈R|V|×d为词嵌入矩阵,其中R为实数,|V|是词表的大小,d是词向量的维度;步骤2-2:对每条数据的所有词向量集合采用向量求和的方法得到案件事实描述的向量表示Wi,步骤2-3:将案件事实描述的向量表示Wi保存在一个字典中,字典的键key、值value分别为案件事实描述的向量表示Wi以及该案件对应的法条L,从而得到以往案例查找库M;步骤3包括:对输入的案件事实描述Tin执行步骤2操作,通过步骤2-1~步骤2-2处理后获得模型输入的案件事实描述的向量化表示Iin,通过Iin与以往案例查找库M中的案件事实向量化表示It进行欧几里得距离计算,从而比较相似度: 其中,dx,yi表示向量x与yi之间的距离,simx,yi表示向量x与yi之间的相似度,x是模型输入的案件事实描述向量化表示Iin,yi是以往案例查找库M中的案件事实向量化表示It;通过计算输入的案件事实描述与以往案例查找库M的案件事实描述的欧几里得距离,从小到大排序,从而获得相似度最高的k个案例,根据以往案例查找库M将前k个案例的法条抽取出来作为备选法条集;根据步骤1建立的法条关键词表,抽取出备选法条集中的法条关键词Z;步骤4包括:将模型输入的案件事实描述和步骤3获得的法条关键词分别编码后,再进行融合,将融合后的特征输入到一个全连接层,全连接层的输出即为所推荐的法条,具体包括以下步骤:步骤4-1:将模型输入的案件事实描述通过步骤2-1操作后获得文本中每个词的词向量J,再对词向量J分别使用Attention注意力机制与BiLSTM双向长短时序记忆获取词级关键信息以及词级全局结构信息;使用Attention机制捕获词级关键模式信息I1公式如下: 其中,u是训练的注意力参数,uT是u的转置,ai表示加权后的每个词向量,s为处理后的案件事实描述所包含的词的个数;使用BiLSTM作用在词向量上,来捕获案件事实描述词级的全局结构信息I2: 其中,词级全局结构信息I2是由前向LSTM的最终状态和反向LSTM的最终状态拼接而成,xs表示第s个单词的词向量;所有的门控单元通过使用前一时刻的隐藏层状态ht-1和当前时刻的输入xt来计算后一时刻的单元状态,具体计算公式如下:it=σWi·[ht-1,xt]+bift=σWf·[ht-1,xt]+bf ot=σWo·[ht-1,xt]+bo 其中,it,ft,ot分别对应着在t时刻的输入门,遗忘门,输出门;为t时刻的单元状态,Wi,Wf,WC,Wo和bi,bf,bC,bo分别为对应的权重和偏置项,σ与tanh为激活函数,·和*表示为乘法运算;步骤4-2:在词向量上J使用CNN卷积神经网络来捕获短语级特征D,使用卷积核F∈Rn×d,n是窗口大小,输入句子看作一个矩阵X∈Rs×d,卷积核F通过与矩阵X进行卷积得到特征图d∈Rs-n+1,特征图d中的每一个元素dk通过以下方式计算得到:dk=σ∑I,jF☉Xk:k+n-1其中,σ表示激活函数,☉为对应元素的乘法运算,Xk:k+n-1表示输入的词向量矩阵第k列到第k+n-1列;对于输入长度与输出长度不一致问题,使用相同填充,使得卷积层的输入长度与输出长度相同,即d∈Rs;使用m个卷积核,得到m个特征图,即短语级特征D∈Rm×s;步骤4-3:在得到短语级特征D后,再对D分别使用Attention机制与BiLSTM双向长短时序记忆来获取短语级的关键信息与短语级的全局结构信息:作用于短语级特征D来捕获短语级关键模式信息I3: 其中,βi表示加权后的每个词向量,v是需要学习的注意力参数,vT是v的转置,di是短语级特征D的第i个表示向量;使用双向长短时序记忆LSTM作用于短语级特征D,得到短语级全局结构信息I4: 其中,卷积核F通过与矩阵X进行卷积得到特征图d∈Rs-n+1,特征图d中的第s个元素为ds,短语级全局结构信息I4是由前向LSTM的最终状态与反向长短时序记忆LSTM的最终状态拼接而成;步骤4-4:对于词级关键模式信息I1、词级全局结构信息I2、短语级关键模式信息I3、短语级全局结构信息I4的融合,使用加权平均的方式来进行处理,从而得到案件事实描述文本T的表示向量It,具体公式如下:It=I1+I2+I3+I44;步骤4-5:通过步骤3获得的法条关键词Z,进行词嵌入,再通过步骤4-1中的Attention注意力机制与BiLSTM双向长短时序记忆获得法条关键词Z词级关键信息L1以及词级全局结构信息L2,对L1、L2进行加权相加获得法条关键词信息I5;I5=L1+L22步骤4-6:对案件事实描述文本T的向量表示It和法条关键词信息I5,进行拼接填充处理,获得文本法条关键词信息的融合表示IT,具体公式如下:IT=[It;I5];步骤4-7:得到用于模型分类器的文本表示矩阵,接着将文本表示矩阵IT输入到全连接层和输出层获得法条标签的预测logits向量,最后使用sigmoid函数预测出所有法条标签的概率,其中全连接层和sigmoid层作为分类模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人河海大学,其通讯地址为:210024 江苏省南京市鼓楼区西康路1号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。