恭喜北京魔娱网络科技有限公司何利获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜北京魔娱网络科技有限公司申请的专利一种云用户身份识别任务分配与并行处理方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115019359B 。
龙图腾网通过国家知识产权局官网在2025-03-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210378320.5,技术领域涉及:G06V40/16;该发明授权一种云用户身份识别任务分配与并行处理方法是由何利;范雪娇设计研发完成,并于2022-04-12向国家知识产权局提交的专利申请。
本一种云用户身份识别任务分配与并行处理方法在说明书摘要公布了:本发明公开了一种云用户身份识别任务分配与并行处理方法,包括下列步骤:S1,移动端使用摄像头获取人脸图像,然后移动端将收集到的人脸图像作为身份识别任务发送到一级边缘服务器上,构建身份识别任务分配模型;S2,使用改进的灰狼优化算法求解身份识别任务与边缘服务器的分配问题;S3,边缘服务器通过人脸识别算法对人脸图像预处理、特征提取;S4,构建并行处理模型;S5,使用K‑means聚类算法,根据某一属性,对特征进行聚类,并均匀分配到各个子特征中;S6,结合基于Sarsa算法和Q‑learning算法的参数自学习策略与遗传算法的并行策略,实现身份识别任务的并行处理。本发明提出了基于强化学习的多策略并行遗传算法,使得匹配时间短速度快。
本发明授权一种云用户身份识别任务分配与并行处理方法在权利要求书中公布了:1.一种云用户身份识别任务分配与并行处理方法,其特征在于,包括以下步骤:S1,移动终端使用摄像头收集人脸图像,人脸图像以三元组TS,AC,TM表示,其中,TS,AC,TM依次代表任务的数据量、任务的计算量、任务的最大容忍时间,边缘节点以三元组C,S,P表示,其中C,S,P依次表示边缘节点的计算能力、边缘节点的总存储量、边缘节点的网络带宽;S2,采用改进的灰狼优化算法求解身份识别任务与边缘服务器分配问题;所述改进的灰狼优化算法在传统灰狼优化算法的基础上进行了以下改进:1指数规律收敛因子调整策略:采用以下公式调整收敛因子b,b=2e-tT,t表示当前迭代次数,T表示设定的最大迭代次数;2自适应位置更新策略:当前灰狼个体到α,β,δ之间的距离权重分别为: 其中,ε为常数,α,β,δ表示等级制度,α是领导者和决策制定者,β和δ帮助α做决策;X1,X2,X3分别表示灰狼个体朝向α,β,δ三者的移步距离;最终,用下式表示灰狼的位置更新方式: 表示ω狼迭代后的位置;3判断猎物:添加了判断猎物过程,判断猎物的数学模型如下:判断猎物的过程需要使用中间向量Jα,Jβ,Jδ,并将Xα,Xβ,Xδ赋值给Jα,Jβ,Jδ;Jα=XαJβ=XβJδ=Xδ每个维度的Jα,Jβ,Jδ的更新公式为: 其中,表示第j个ω狼的第i维度的位置值;必须将Jα,Jβ,Jδ的第i维度替换为然后比较Jα和Xα的位置,如果Jα比Xα的位置好,则将Jα的位置赋值给Xα,否则的话,Xα不改变;Xβ和Xδ重复相同操作,表示第i维度Jα,Jβ,Jδ的值;S3,对系统获取的原始图像进行图像预处理和人脸特征提取;S4,构建并行处理模型,引入二级边缘服务器;构建并行处理问题的数学模型:1决策变量 Ck,j=边缘节点j上第k位置任务所需时间k={1,2,...,n},j={1,2,...,m}2优化目标minCmax=Cn,m其中Cn,m表示特征n从一级服务器分配到二级边缘服务器m上的完成时间;Cmax表示最大完成时间;3约束条件保证了一个位置只能被一个任务占用: 控制了第一个和后面边缘节点完成所有分配任务的时间: 确保任务上一个子特征已完成且将上一个任务分配给边缘节点也已完成: 决策变量取值范围的保证:Ck,j≥0,k={1,2,...,n},j={1,2,...,m}Xi,k∈{0,1},j,k={1,2,...,n}式中,n表示特征数目,m表示二级边缘服务器数目;ti,j表示任务特征i在一级边缘节点分配给二级边缘节点j所需时间;S5,使用K-means聚类算法并行策略,根据某一属性,对特征进行聚类,并均匀分配到各个子特征中,以保证各子特征中的个体属性相似度达到较低,缩小各子特征间的差异,增加获得该问题最优解的机会;所述K-means聚类算法并行策略包括:1定义数据:初始化随机产生的一组数量为N的种群,每个个体是条染色体,将其视为一条数据,构成大小为N的数据集P;2聚类:用原始K-means聚类方法,获得结果,及每个个体归属的类别;3调整:将每个个体放置于它们归属的类中,这样就获得了{{C1,C2,...,Ck}}共k个子类的集合,再将这些子类按顺序放置,即新的数据集={{C1中的数据,C2中的数据,...,Ck中的数据}},也就构成新的种群newP;4划分子种群:在调整后的种群newP中,分为k个子种群,第一个子种群的构成为{newP[1],newP[1+k],newP[1+2k],...,newP[-k]},以此类推,共划分为k个子种群;S6,结合基于Sarsa算法和Q-learning算法的参数自学习策略与遗传算法的并行策略,实现身份识别任务的并行处理;利用K-means初始化种群后,再针对不同的子种群采取不同的参数策略,对于满足强化学习转换条件的子种群,使用Sarsa算法的参数自学习策略,实现参数的自主控制和自适应;不满足条件的子种群,则采用Q-learning的参数自学习策略,从而实现多策略并行计算;结合Q-learning算法和Sarsa算法的混合学习策略,在不同阶段应用不同的强化学习算法,具体步骤如下所示:Step1:为每个状态-动作初始化Q值表;Step2:获得当前状态St,S←St;Step3:根据转换条件,使用Sarsa算法或Q-learning算法从状态s中选择动作集中的动作a;Step4:执行动作a;Step5:根据调整交叉率得到的奖励和调整变异率得到的奖励获得强化奖励r,并得到新状态St+1;Step6:如果达到GA算法的终止状态则终止进程,否则,继续步骤7;Step7:根据Sarsa算法或Q-learning算法更新Q值;Step8:更新状态S←St+1Step9:确定是否满足转化条件,满足的话,转化Sarsa算法为Q-learning算法并转向Step2,否则的话,直接转向Step2;在初始阶段,将Sarsa算法与GA算法结合并通过下式更新Q值;Qst,at←1-αQst,at+αrt+1+γQst+1,at+1式中,Qst,at为在当前状态St采取动作at的Q值,rt+1是在状态St执行动作at后的奖赏值,γ是折扣率,Qst+1,at+1为在当前状态St+1采取动作at+1的Q值,α是学习率;若满足以下转换条件,则将Sarsa算法转换为Q-learning算法; 式中,Nti表示当前迭代数,Nts表示状态总数,Nta表示动作总数;RL表示强化学习算法;初始阶段结束后,Q-learning算法取代Sarsa算法与GA算法结合,由下式更新Q值; 式中,表示当状态St+1执行动作at+1时在Q值表中最高的Q值;1.状态集:从以下三方面构建,包括:1种群的平均适应度,2种群多样性,3最佳个体适应度;第一代种群平均适应度归一化后得到的种群的平均适应度由下式计算: 第一代种群多样性归一化后得到的种群多样性由下式计算: 第一代种群最佳个体适应度归一化后得到的最佳个体适应度: 种群状态值由种群平均适应度,种群多样性,最佳个体适应度加权计算:S*=w1f*+w2d*+w3m*式中,表示第t代第i个体的适应度,表示第一代第i个体的适应度,表示第一代第j个体的适应度,表示第t代最佳个体适应度,w1,w2,w3是权重因子且w1+w2+w3=1;2.动作集:每代代理人会采取不同的动作获得适当的Pc和Pm,当动作设置为a1时,Pc∈[0.4,0.45,并在这个范围内取一个随机值;当动作设置为a2时,Pc∈[0.45,0.5,当动作设置为a2时,Pm∈[0.01,0.03并在这个范围内取一个随机值,其中a1表示动作1,a1表示动作2;3.奖励方法:如果第t代的最佳个体适应度比第t-1代的要好,那么代理人获得奖励并且当前的Pc是有效的,如果第t代的平均适应度比第t-1代的要好,那么代理人获得奖励并且当前的Pm是有效的;调整交叉率得到的奖励: 调整变异率得到的奖励: 式中,表示第t代第i个体的适应度;4.动作选择策略:探索未知的环境并利用获得的知识指导代理人选择动作,初始时,所有的Q值都为0,这意味着代理人没有任何学习经验可以使用,只有探索可以执行和学习。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京魔娱网络科技有限公司,其通讯地址为:101300 北京市顺义区天竺地区府前一街13号4幢4层401室;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。