恭喜北京航空航天大学肖利民获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜北京航空航天大学申请的专利一种多任务并发情况下GPU资源动态分配方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114048026B 。
龙图腾网通过国家知识产权局官网在2025-05-23发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111258248.4,技术领域涉及:G06F9/50;该发明授权一种多任务并发情况下GPU资源动态分配方法是由肖利民;常佳辉;秦广军;朱乃威;徐向荣设计研发完成,并于2021-10-27向国家知识产权局提交的专利申请。
本一种多任务并发情况下GPU资源动态分配方法在说明书摘要公布了:本发明提供一种多任务情况下GPU资源的动态分配方法,以解决NVIDIAGPU多任务并发时,采用静态资源分配方法造成的大量资源空闲,系统吞吐率下降,资源分配不合理的问题,具有三个明显的特征:1可配置性,原生GPU环境无法自主配置程序运行时占用的资源量,本系统提出了一种软件的方法,在不修改任何硬件、驱动细节的情况下,实现了GPU程序运行时资源使用量的可配置性;2高效性,本方法考虑任务对不同种类资源的亲和性,将资源需求互补的任务并发执行,提高GPU资源的使用效率,加快多任务处理;3易用性,本方法提供了简易的程序转换模式,开发者只需要采用固定的操作步骤,即可将原生程序迁移至本系统下运行。
本发明授权一种多任务并发情况下GPU资源动态分配方法在权利要求书中公布了:1.一种多任务情况下GPU资源的动态分配方法,首先通过一个固定的源码修改模式,将控制代码段插入CUDA程序,使得程序运行时占用的资源量可控制,然后将CUDA程序的运行模式修改成CS架构,客户端为一套自实现的CUDAAPI,替换原主机程序中的CUDAAPI,服务端采用一个后端进程接收来自不同客户端的CUDA调用,并将调用进行排队处理,最后服务端进行资源使用量的动态调控,服务端遍历CUDA请求队列,将计算任务放在GPU上执行,当队首的任务与正在运行的任务资源需求互补时,服务端动态缩减正在运行的任务占用的资源量,并启动等待中的任务,实现并发处理;包括以下步骤:1修改GPU程序,插入具有控制程序资源使用量的代码段,将cuda程序中动态分配的block变成worker,循环拉取block执行;2对GPU程序采样,运行GPU程序一段时间,保证GPU资源全部被占用,并且持续一段时间,获取此时间段GPU程序执行的总指令数量以及获取全部内存指令的数量;3使用Json格式文本保存GPU程序采样数据,以及占用寄存器、共享内存数量;4程序编译时,替换原生CUDAAPI,并链接本系统实现的CUDAAPI库,本系统实现的CUDAAPI库会将CUDA请求通过socket发送给服务端;5服务端为每个活跃客户端连接创建一个线程,线程保存CUDA任务队列;6启动kernel前,在GPU显存上开辟一块空间,保存程序运行时的资源分配配置,程序运行时,控制代码段控制GPU使用的资源量;7当有两个及以上GPU程序需要运行时,通过对比样本数据,计算最优分配方法,设置GPU显存上的配置数据,运行kernel;8当有GPU任务运行完成后,通知服务端,服务端选择从队列中拉取新的任务再并发执行,或者扩容正在运行的GPU程序。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京航空航天大学,其通讯地址为:100191 北京市海淀区学院路37号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。