可左右滑动选省市

人工智能模型请求响应机制优化方法、系统、终端及介质

更新时间:2025-05-01
人工智能模型请求响应机制优化方法、系统、终端及介质 专利申请类型:实用新型专利;
地区:广东-深圳;
源自:深圳高价值专利检索信息库;

专利名称:人工智能模型请求响应机制优化方法、系统、终端及介质

专利类型:实用新型专利

专利申请号:CN202111364613.X

专利申请(专利权)人:中国科学院深圳先进技术研究院
权利人地址:广东省深圳市南山区深圳大学城学苑大道1068号

专利发明(设计)人:吴嘉澍,王洋,须成忠,叶可江

专利摘要:本申请涉及一种人工智能模型请求响应机制优化方法、系统、终端以及存储介质。所述方法包括:获取当前人工智能模型请求的目标模型;采用频繁模式树筛选出能够与所述目标模型构成频繁模型组的至少一个其他人工智能模型;所述频繁模型组为同时使用次数大于设定频繁程度阈值的至少两个人工智能模型的组合;采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方。本申请在传输模型请求所需要的目标模型的同时,连带传输所有能够与该目标模型构成频繁模型组的其他模型,以避免在下一次响应模型请求时由于单个模型传输不可打包而造成的传输代价浪费,有效的降低了响应人工智能模型请求的代价成本。

主权利要求:
1.一种人工智能模型请求响应机制优化方法,其特征在于,包括:
获取当前人工智能模型请求的目标模型;
采用频繁模式树筛选出能够与所述目标模型构成频繁模型组的至少一个其他人工智能模型;所述频繁模型组为同时使用次数大于设定频繁程度阈值的至少两个人工智能模型的组合;
采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方;
所述采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方具体为:判断所述频繁模型组信息对应的人工智能模型在云服务器本地是否存在可用的模型缓存副本,如果存在,利用所述本地的模型缓存副本响应当前人工智能模型请求;如果不存在,判断当前人工智能模型请求属于单模型请求还是多模型请求,如果是单模型请求,执行以下单模型请求处理过程:在拥有所述目标模型的任一分布式云服务器上计算所述目标模型的F集合,并复制所述目标模型以及F集合中的模型后,利用连带打包传输机制将所述目标模型以及F集合中的模型一起打包传输至模型请求方;其中,所述单模型请求是指所请求的目标模型仅包括一个,所述多模型请求是指所请求的目标模型包括至少两个;所述F集合是指在拥有目标模型的云服务器上存在的能与该目标模型构成频繁模型组且在当前云服务器本地没有缓存副本的人工智能模型的集合;如果是多模型请求,判断当前人工智能模型请求的至少两个目标模型中是否至少有一个目标模型不存在本地缓存副本,如果是,对所述不存在本地缓存副本的目标模型执行单模型请求处理过程;
否则,判断当前人工智能模型请求的至少两个目标模型是否能够构成频繁模型组,如果不能,针对每一个目标模型分别执行一次单模型请求处理过程;如果可以,判断是否存在同时拥有所述至少两个目标模型的另一个云服务器,如果不存在,针对每一个目标模型分别执行一次单模型请求处理过程;如果存在,从所述同时拥有至少两个目标模型的另一个云服务器中获取至少两个目标模型以及对应的两个F集合,并获取两个F集合的并集,将所述两个目标模型以及F集合的并集中的全部模型进行复制并连带打包传输至模型请求方。
2.根据权利要求1所述的人工智能模型请求响应机制优化方法,其特征在于,所述采用频繁模式树筛选出能够与所述目标模型构成频繁模型组的至少一个其他人工智能模型包括:将当前人工智能模型请求加入历史请求记录中;所述历史请求记录用于存储所有历史人工智能模型请求事件;
从所述历史请求记录中筛选出所有的多模型请求事件,其中,所述多模型请求事件是指所请求的目标模型至少为两个的人工智能模型请求;
构建频繁模式树,通过所述频繁模式树对筛选的多模型请求事件进行分析,并筛选出与所述目标模型同时使用次数大于频繁程度阈值的所有其他人工智能模型,将所述目标模型分别与至少一个其他人工智能模型进行组合,生成至少一个频繁模型组;
返回所述目标模型的频繁模型组信息。
3.根据权利要求2所述的人工智能模型请求响应机制优化方法,其特征在于,所述采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方之后还包括:对于每一个新复制并传输的人工智能模型,在当前云服务器中更新所述模型的全局缓存计数器;所述全局缓存计数器是为每一个人工智能模型维护的一个副本数量计数器,用于记录每个人工智能模型在当前云服务器上存在的缓存副本的数量。
4.根据权利要求1至3任一项所述的人工智能模型请求响应机制优化方法,其特征在于,所述采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方之后还包括:根据人工智能模型的过期时间判断当前云服务器中是否存在过期模型缓存副本,如果存在过期模型缓存副本,采用连带维护机制对当前云服务器中的过期模型缓存副本进行删除;
所述过期时间为当前时间加上Δt,Δt=λ/μ,λ表示传输一个人工智能模型的代价,μ表示存储一个人工智能模型的代价;
当所述人工智能模型的缓存副本在本地的缓存时间大于Δt时,表示模型缓存代价大于模型传输代价,则判定所述人工智能模型的本地缓存副本过期。
5.根据权利要求4所述的人工智能模型请求响应机制优化方法,其特征在于,所述采用连带维护机制对当前云服务器中的过期模型缓存副本进行删除具体为:判断本地是否存在能够与所述过期模型缓存副本构成频繁模型组的其他模型缓存副本,如果不存在,判断所述过期模型缓存副本是否为全局唯一缓存副本,如果是,延长该过期模型缓存副本的过期时间,延长时间为Δt;如果不是,删除所述过期模型缓存副本;如果存在,判断所述其他模型缓存副本中是否存在与当前过期模型缓存副本同时过期的模型缓存副本,如果不存在,将所述当前过期模型缓存副本的过期时间延长至能与其构成频繁模型组的其他模型中最接近过期时间的模型的过期时间;如果存在,判断所述过期模型缓存副本以及与之同时过期的其他模型缓存副本是否都为全局唯一副本,如果是,延长所述过期模型缓存副本以及与之同时过期的其他模型缓存副本的过期时间,延长时长为Δt;否则,删除所述过期模型缓存副本以及与之同时过期的其他模型缓存副本。
6.根据权利要求5所述的人工智能模型请求响应机制优化方法,其特征在于,所述采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方之后还包括:更新所述被删除模型的全局缓存计数器,并将所述被删除模型在当前云服务器上的本地过期信息更新为0。
7.一种利用权利要求1所述人工智能模型请求响应机制优化方法的人工智能模型请求响应机制优化系统,其特征在于,包括:目标模型获取模块:用于获取当前人工智能模型请求的目标模型;
频繁模型筛选模块:用于采用频繁模式树筛选出能够与所述目标模型构成频繁模型组的至少一个其他人工智能模型;所述频繁模型组为同时使用次数大于设定频繁程度阈值的至少两个人工智能模型的组合;
连带打包传输模块:用于采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方。
8.一种终端,其特征在于,所述终端包括处理器、与所述处理器耦接的存储器,其中,所述存储器存储有用于实现权利要求1‑6任一项所述的人工智能模型请求响应机制优化方法的程序指令;
所述处理器用于执行所述存储器存储的所述程序指令以控制人工智能模型请求响应机制优化。
9.一种存储介质,其特征在于,存储有处理器可运行的程序指令,所述程序指令用于执行权利要求1至6任一项所述人工智能模型请求响应机制优化方法。 说明书 : 人工智能模型请求响应机制优化方法、系统、终端及介质技术领域[0001] 本申请属于人工智能技术领域,特别涉及一种人工智能模型请求响应机制优化方法、系统、终端以及存储介质。背景技术[0002] 随着信息时代的高速发展,越来越多的人工智能应用场景应运而生。从智慧交通到智慧医疗,都离不开人工智能应用的支持。随着人工智能应用的迅猛增多,越来越多的人工智能应用被部署至计算能力更强,存储能力更好的分布式云服务器上运行。由于人工智能应用所用到的模型的大小往往小于数据本身。因此,当一个拥有所需数据的分布式云服务器接到一个人工智能任务时,将模型传输至数据所在之处可以优化对于任务请求的响应,同时减少通讯的成本与压力。随着人工智能应用变得日益复杂,一个人工智能任务可能需要多个模型才能完成。由于将经常使用的模型进行打包传输可有效的降低传输代价,因此,将经常被同时请求的人工智能模型打包传输至接收到模型请求的云服务器成为了一种有效降低开销的手段。由于人工智能任务的复杂性,一个人工智能模型可能与多个其他人工智能模型频繁被两两同时使用。因此,如果能在传输一个人工智能模型的时候连带打包传输经常与之同时使用的其他人工智能模型,就可以更加充分的挖掘打包传输所带来的优势,避免因未使用连带式打包传输而造成的后续单独模型传输,从而优化传输的成本代价。而如何进行恰当的模型缓存与传输对于人工智能模型请求的响应时间和成本都具有较大影响。[0003] 现有的模型缓存技术包括:[0004] Podlipnig等人在文献[Podlipnig,S., L.,2003.Asurveyofwebcachereplacementstrategies.ACMComputingSurveys(CSUR)35,374–398.]中探索了分布式缓存替换技术。Wijesundara等人在文献[Wijesundara,M.,Tay,T.,2003.Anobjectreplacementstrategyforglobalperformanceindistributedwebcaching,in:CommunicationTechnologyProceedings,pp.1687–1690.]中证明了缓存替换问题的NP难解性,并将其转换为背包问题进行求解。Nuggehalli等人在文献[Nuggehalli,P.,Srinivasan,V.,Chiasserini,C.F.,2003.Energy‑efficientcachingstrategiesinadhocwirelessnetworks,in:Proceedingsofthe4thACMinternationalsymposiumonMobileadhocnetworking&computing,pp.25–34.]与Tang等人在[Tang,B.,Gupta,H.,Das,S.R.,2008.Benefit‑baseddatacachinginadhocnetworks.IEEEtransactionsonMobileComputing7,289–304.]中证明了最优缓存放置问题的NP完全性,并提出了对应的近似算法进行求解。然而上述方案都是将优化存储空间、优化缓存命中率等作为优化目标,而没有将缓存和传输代价作为优化目标。此外,上述方案都没有应用到连带式的打包传输机制。[0005] 此后,Veeravalli等人在文献[Veeravalli,B.,2003.Networkcachingstrategiesforashareddatadistributionforapredefinedservicedemandsequence.IEEETransactionsonKnowledgeandDataEngineering15,1487–1497.]中探索了在全连接网络环境下的离线单个请求的缓存优化方法。Wang等人在文献[Wang,Y.,He,S.,Fan,X.,Xu,C.,Culberson,J.,Horton,J.,2017.Datacachinginnextgenerationmobilecloudservices,onlinevs.off‑line,in:ParallelProcessing(ICPP),201746thInternationalConferenceon,pp.412–421.]中提出将数据缓存问题延展至云服务器环境,并提出了对应的最优离线算法。然而上述方法都只能在离线状态下工作,且这些算法仅仅探索了包含一个模型的人工智能请求的缓存与传输问题,对于单个模型请求的缓存与传输方法具有较大的局限性。发明内容[0006] 本申请提供了一种人工智能模型请求响应机制优化方法、系统、终端以及存储介质,旨在至少在一定程度上解决现有技术中的上述技术问题之一。[0007] 为了解决上述问题,本申请提供了如下技术方案:[0008] 一种人工智能模型请求响应机制优化方法,包括:[0009] 获取当前人工智能模型请求的目标模型;[0010] 采用频繁模式树筛选出能够与所述目标模型构成频繁模型组的至少一个其他人工智能模型;所述频繁模型组为同时使用次数大于设定频繁程度阈值的至少两个人工智能模型的组合;[0011] 采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方。[0012] 本申请实施例采取的技术方案还包括:所述采用频繁模式树筛选出能够与所述目标模型构成频繁模型组的至少一个其他人工智能模型包括:[0013] 将当前人工智能模型请求加入历史请求记录中;所述历史请求记录用于存储所有历史人工智能模型请求事件;[0014] 从所述历史请求记录中筛选出所有的多模型请求事件,其中,所述多模型请求事件是指所请求的目标模型至少为两个的人工智能模型请求;[0015] 构建频繁模式树,通过所述频繁模式树对筛选的多模型请求事件进行分析,并筛选出与所述目标模型同时使用次数大于频繁程度阈值的所有其他人工智能模型,将所述目标模型分别与至少一个其他人工智能模型进行组合,生成至少一个频繁模型组;[0016] 返回所述目标模型的频繁模型组信息。[0017] 本申请实施例采取的技术方案还包括:所述采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方具体为:[0018] 判断所述频繁模型组信息对应的人工智能模型在云服务器本地是否存在可用的模型缓存副本,如果存在,利用所述本地的模型缓存副本响应当前人工智能模型请求;如果不存在,[0019] 判断当前人工智能模型请求属于单模型请求还是多模型请求,如果是单模型请求,执行以下单模型请求处理过程:在拥有所述目标模型的任一分布式云服务器上计算所述目标模型的F集合,并复制所述目标模型以及F集合中的模型后,利用连带打包传输机制将所述目标模型以及F集合中的模型一起打包传输至模型请求方;其中,所述单模型请求是指所请求的目标模型仅包括一个,所述多模型请求是指所请求的目标模型包括至少两个;所述F集合是指在拥有目标模型的云服务器上存在的能与该目标模型构成频繁模型组且在当前云服务器本地没有缓存副本的人工智能模型的集合;如果是多模型请求,[0020] 判断当前人工智能模型请求的至少两个目标模型中是否至少有一个目标模型不存在本地缓存副本,如果是,对所述不存在本地缓存副本的目标模型执行单模型请求处理过程;否则,判断当前人工智能模型请求的至少两个目标模型是否能够构成频繁模型组,如果不能,针对每一个目标模型分别执行一次单模型请求处理过程;如果可以,[0021] 判断是否存在同时拥有所述至少两个目标模型的另一个云服务器,如果不存在,针对每一个目标模型分别执行一次单模型请求处理过程;如果存在,[0022] 从所述同时拥有至少两个目标模型的另一个云服务器中获取至少两个目标模型以及对应的两个F集合,并获取两个F集合的并集,将所述两个目标模型以及F集合的并集中的全部模型进行复制并连带打包传输至模型请求方。[0023] 本申请实施例采取的技术方案还包括:所述采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方之后还包括:[0024] 对于每一个新复制并传输的人工智能模型,在当前云服务器中更新所述模型的全局缓存计数器;所述全局缓存计数器是为每一个人工智能模型维护的一个副本数量计数器,用于记录每个人工智能模型在当前云服务器上存在的缓存副本的数量。[0025] 本申请实施例采取的技术方案还包括:所述采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方之后还包括:[0026] 根据人工智能模型的过期时间判断当前云服务器中是否存在过期模型缓存副本,如果存在过期模型缓存副本,采用连带维护机制对当前云服务器中的过期模型缓存副本进行删除;[0027] 所述过期时间为当前时间加上Δt,Δt=λ/μ,λ表示传输一个人工智能模型的代价,μ表示存储一个人工智能模型的代价;[0028] 当所述人工智能模型的缓存副本在本地的缓存时间大于Δt时,表示模型缓存代价大于模型传输代价,则判定所述人工智能模型的本地缓存副本过期。[0029] 本申请实施例采取的技术方案还包括:所述采用连带维护机制对当前云服务器中的过期模型缓存副本进行删除具体为:[0030] 判断本地是否存在能够与所述过期模型缓存副本构成频繁模型组的其他模型缓存副本,如果不存在,判断所述过期模型缓存副本是否为全局唯一缓存副本,如果是,延长该过期模型缓存副本的过期时间,延长时间为Δt;如果不是,删除所述过期模型缓存副本;如果存在,[0031] 判断所述其他模型缓存副本中是否存在与当前过期模型缓存副本同时过期的模型缓存副本,如果不存在,将所述当前过期模型缓存副本的过期时间延长至能与其构成频繁模型组的其他模型中最接近过期时间的模型的过期时间;如果存在,[0032] 判断所述过期模型缓存副本以及与之同时过期的其他模型缓存副本是否都为全局唯一副本,如果是,延长所述过期模型缓存副本以及与之同时过期的其他模型缓存副本的过期时间,延长时长为Δt;否则,[0033] 删除所述过期模型缓存副本以及与之同时过期的其他模型缓存副本。[0034] 本申请实施例采取的技术方案还包括:所述采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方之后还包括:[0035] 更新所述被删除模型的全局缓存计数器,并将所述被删除模型在当前云服务器上的本地过期信息更新为0。[0036] 本申请实施例采取的另一技术方案为:一种人工智能模型请求响应机制优化系统,包括:[0037] 目标模型获取模块:用于获取当前人工智能模型请求的目标模型;[0038] 频繁模型筛选模块:用于采用频繁模式树筛选出能够与所述目标模型构成频繁模型组的至少一个其他人工智能模型;所述频繁模型组为同时使用次数大于设定频繁程度阈值的至少两个人工智能模型的组合;[0039] 连带打包传输模块:用于采用连带打包传输机制将所述目标模型以及所述至少一个其他人工智能模型打包传输至模型请求方。[0040] 本申请实施例采取的又一技术方案为:一种终端,所述终端包括处理器、与所述处理器耦接的存储器,其中,[0041] 所述存储器存储有用于实现所述人工智能模型请求响应机制优化方法的程序指令;[0042] 所述处理器用于执行所述存储器存储的所述程序指令以控制人工智能模型请求响应机制优化。[0043] 本申请实施例采取的又一技术方案为:一种存储介质,存储有处理器可运行的程序指令,所述程序指令用于执行所述人工智能模型请求响应机制优化方法。[0044] 相对于现有技术,本申请实施例产生的有益效果在于:本申请实施例的人工智能模型请求响应机制优化方法、系统、终端以及存储介质采用连带式打包传输机制,在传输模型请求所需要的目标模型的同时,连带传输所有能够与该目标模型构成频繁模型组的其他模型,以避免在下一次响应模型请求时由于单个模型传输不可打包而造成的传输代价浪费,有效的降低了响应人工智能模型请求的代价成本。本申请实施例的连带打包传输机制适用于所有在线到来的人工智能模型请求,不需要对模型请求做任何预先假设,具有较高的普遍性和实用性。同时,本发明采取连带式缓存副本维护机制对本地的过期模型缓存副本进行连带式删除维护,避免了由于非连带式维护机制所造成的额外传输的发生,从而进一步优化了传输代价。附图说明[0045] 图1是本申请实施例的人工智能模型请求响应机制优化方法的流程图;[0046] 图2为本申请实施例的频繁模型组生成过程示意图;[0047] 图3为本申请实施例的人工智能模型连带打包传输过程示意图;[0048] 图4为本申请实施例的过期模型缓存副本维护过程示意图;[0049] 图5为本申请实施例的人工智能模型请求响应机制优化系统结构示意图;[0050] 图6为本申请实施例的终端结构示意图;[0051] 图7为本申请实施例的存储介质的结构示意图。具体实施方式[0052] 为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。[0053] 针对现有技术的不足,本申请实施例的人工智能模型请求响应机制优化方法以响应人工智能模型请求的传输通讯代价为优化目标,以打包传输降低传输代价为原则,采用连带式打包传输机制,在首次响应一个人工智能模型请求时,将所请求的模型以及所有能够与该模型组成频繁智能模型组的其他模型一起进行打包传输,从而更好地挖掘连带式打包传输所带来的通讯代价优化优势,避免因使用非连带式传输而造成的单个模型传输的代价浪费,以此更好的对分布式云服务器所接收到的人工智能模型请求进行响应。[0054] 具体地,请参阅图1,是本申请实施例的人工智能模型请求响应机制优化方法的流程图。本申请实施例的人工智能模型请求响应机制优化方法包括以下步骤:[0055] S10:接收人工智能模型请求;[0056] S20:对当前人工智能模型请求进行在线分析,获取当前人工智能模型请求的目标模型,并获取所有与目标模型频繁一同使用的至少一个其他人工智能模型,通过目标模型与至少一个其他人工智能模型生成至少一个频繁模型组;[0057] 本步骤中,人工智能模型包括图像识别神经网络、图像去噪神经网络以及文本分词模型等多种类型的神经网络,不同类型的神经网络应用于不同的识别任务。对于每一个人工智能模型请求,可以根据任务类型请求一个模型或同时请求至少两个模型,例如对于一个图片分类任务,只需要请求一个预训练好的图像识别神经网络;而对于一个物体识别任务,需要同时请求一个用于增强图片清晰度的图像去噪神经网络,以及一个用于物体识别分类的图像识别神经网络。因此,对于每一个人工智能模型而言,都可以与多个经常被同时使用的其他人工智能模型构成频繁模型组以执行不同的任务,频繁模型组即为同时使用次数大于设定频繁程度阈值的至少两个人工智能模型的组合。例如图像识别神经网络与图像去噪神经网络可以构成一个频繁模型组用以执行图像分类任务,而图像识别神经网络与活体检测网络可以构成一个频繁模型组用以执行人脸识别任务。而很少被同一个任务同时使用的图像识别神经网络与文本分词模型则不会构成频繁模型组,这是因为如果两个模型并不经常被同时请求,则意味对这两个模型的请求往往会以单独模型请求的形式出现,而在每次单独请求时,都需要对两个模型组成的频繁模型组进行解压缩,从而产生更多的代价,不利于代价优化。[0058] 具体的,如图2所示,为本申请实施例的频繁模型组生成过程示意图,其具体包括以下步骤:[0059] S21:将当前人工智能模型请求加入历史请求记录中,并删除历史请求记录中较为久远的历史人工智能模型请求事件;其中,历史请求记录用于存储所有历史人工智能模型请求事件;[0060] S22:从历史请求记录中筛选出所有的多模型请求事件,其中,多模型请求事件是指所请求的目标模型至少为两个的人工智能模型请求;[0061] S23:构建FP‑Tree(频繁模式树),通过FP‑Tree对筛选的多模型请求事件进行分析,并根据频繁程度阈值筛选所有与目标模型频繁一同使用的其他人工智能模型,将目标模型分别与至少一个其他人工智能模型进行组合,生成目标模型的频繁模型组信息;[0062] 其中,如果在加入到当前人工智能模型请求并删除历史人工智能模型请求事件之后,历史请求记录中的多模型请求事件数量没有发生变动,则无需耗时重新构建FP‑Tree。生成的频繁模型组信息中至少包括模型名称。[0063] S24:返回频繁模型组信息。[0064] S30:根据频繁模型组信息获取对应的人工智能模型,并采用连带打包传输机制将获取的所有人工智能模型打包传输至模型请求方;[0065] 本步骤中,通过将目标模型以及与目标模型频繁被一同使用的其他人工智能模型以连带打包的形式传输至模型请求方,相比于单独传输多个人工智能模型可以有效的降低传输代价。如图3所示,为本申请实施例的人工智能模型连带打包传输过程示意图,其具体包括以下步骤:[0066] S31:接收频繁模型组信息,并判断频繁模型组信息对应的人工智能模型在云服务器本地是否存在可用的模型缓存副本,如果存在模型缓存副本,执行S32;否则,执行S33;[0067] S32:利用本地的模型缓存副本响应当前人工智能模型请求,无需进行任何额外模型传输,并执行S39;[0068] S33:判断当前人工智能模型请求属于单模型请求还是多模型请求,如果是单模型请求,执行S34;如果是多模型请求,执行S35;[0069] 其中,单模型请求是指所请求的目标模型仅包括一个,多模型请求是指所请求的目标模型包括至少两个。[0070] S34:在拥有目标模型的任一分布式云服务器上计算目标模型的F集合,并复制目标模型以及F集合中的模型后,利用连带打包传输机制将目标模型以及F集合中的模型副本一起打包传输至模型请求方;[0071] 其中,F集合即在拥有目标模型的云服务器上存在的能与该目标模型构成频繁模型组且在当前云服务器本地没有缓存副本的人工智能模型的集合。基于连带打包传输机制将目标模型及其F集合中的其他模型进行复制并进行连带打包传输,以此充分发掘打包传输带来的传输代价优化优势。[0072] S35:判断当前人工智能模型请求的目标模型中是否至少有一个目标模型不存在本地缓存副本,如果是,对该不存在本地缓存副本的目标模型执行S34;否则,执行36;[0073] 其中,假设多模型请求需要请求的目标模型包括两个,其中一个目标模型在本地存在缓存副本,而另一个不存在缓存副本,则只需要传输不存在缓存副本的模型,该模型的传输方式与单模型请求的模型传输方式相同,此处不再赘述。[0074] S36:判断当前人工智能模型请求的至少两个目标模型是否能够构成频繁模型组,如果可以,执行S37;否则针对每一个目标模型分别执行一次S34;[0075] 其中,假设多模型请求需要请求两个目标模型且这两个目标模型不能构成频繁模型组,则分别获取每一个目标模型以及对比目标模型的F集合并进行连带打包传输,即针对每一个目标模型分别执行一次单模型请求的处理过程。[0076] S37:判断是否存在同时拥有至少两个目标模型的另一个云服务器,如果存在,执行S38;否则,针对每一个目标模型分别执行一次S34;[0077] 其中,假设多模型请求需要请求两个目标模型,如果两个目标模型不存在于同一个云服务器上,则需要从两个云服务器上分别获取每一个目标模型以及对应目标模型的F集合并进行连带打包传输,即需要进行两次单模型请求的处理。[0078] S38:从同时拥有至少两个目标模型的另一个云服务器中获取至少两个目标模型以及对应的两个F集合,并获取两个F集合的并集,将两个目标模型以及F集合的并集中的全部模型进行复制并连带打包传输至模型请求方。[0079] S39:对于每一个新复制并传输的人工智能模型,在当前云服务器中更新该模型的全局缓存计数器;其中,全局缓存计数器是为每一个人工智能模型维护的一个副本数量计数器,用于记录每个模型在分布式云服务器上共拥有几个缓存副本。[0080] 基于上述,假设当前云服务器接收到的人工智能模型请求为执行物体识别任务所发出的多模型请求,该多模型请求的目标模型包括图像分类网络与图片去噪网络。而在实际应用过程中,由于图像分类网络与图片去噪网络经常会被同时使用,因此,将图像分类网络与图片去噪网络组成频繁模型组并进行连带式打包传输,减小了进行两次单个模型传输的传输代价。而被连带打包传输的频繁模型组在其他模型请求中被调用的概率是很大的,造成的浪费较小。假设在此之后,假设云服务器接收到的人工智能模型请求为执行人脸识别任务所发出的多模型请求,该人工智能模型请求的目标模型包括图像分类网络与活体检测网络。此时由于在云服务器本地已经存在图像分类网络的缓存副本,因此该请求只需要对活体检测网络进行传输,连带打包机制也就无法使用,造成了通讯成本的增加。为避免此种通讯代价的增加,本发明在响应第一个模型请求时,连带传输所有能够与当前目标模型构成频繁模型组的其他人工智能模型,以避免后续由于单个模型传输而造成的代价浪费。由于连带传输的其他人工智能模型都是可以与请求模型构成频繁模型组的模型,因此,这种连带打包传输机制可以在传输过程中大大减小传输代价。[0081] S40:根据人工智能模型的过期时间判断当前云服务器中是否存在过期模型缓存副本,并在存在过期模型缓存副本时发出模型缓存副本过期事件;[0082] 本步骤中,假设将传输一个人工智能模型的代价记为λ,将存储一个人工智能模型的代价记为μ,将人工智能模型的过期时间设定为当前时间加上Δt,Δt=λ/μ。Δt的具体含义为:当模型缓存副本在本地的缓存时间小于Δt时,表示模型缓存在本地的代价小于将本地模型缓存副本删除之后进行传输的代价,即模型缓存代价小于模型传输代价,则判定该模型的本地缓存副本没有过期。当模型缓存在本地的时间等于Δt时,表示模型缓存在本地的代价等于将本地模型缓存副本删除之后进行传输的代价,判定该模型的本地缓存副本没有过期。而当模型缓存在本地的时间大于Δt时,表示模型缓存在本地的代价大于将本地模型缓存副本删除之后进行传输的代价。即模型缓存代价大于模型传输代价,则判定该模型的本地缓存副本过期。[0083] S50:采用连带维护机制对当前云服务器中的过期模型缓存副本进行删除;[0084] 本步骤中,如图4所示,为本申请实施例的过期模型缓存副本维护过程示意图,其具体包括以下步骤:[0085] S51:判断本地是否存在能够与过期模型缓存副本构成频繁模型组的其他模型缓存副本,如果不存在,执行S52;如果存在,执行S55;[0086] S52:判断过期模型缓存副本是否为全局唯一缓存副本,如果是,执行S53;否则,执行S54;[0087] S53:延长该过期模型缓存副本的过期时间,延长时间为Δt;[0088] 其中,如果过期模型缓存副本为全局唯一缓存副本,则自动延长该副本的过期时间,以防止模型丢失;否则,将删除该过期模型缓存副本,以优化代价。[0089] S54:删除该过期模型缓存副本,并执行S59;[0090] S55:判断其他模型缓存副本中是否存在与当前过期模型缓存副本同时过期的模型缓存副本,如果不存在,执行S56;如果存在,执行S57;[0091] S56:将当前过期模型缓存副本的过期时间延长至能与其构成频繁模型组的其他模型中最接近过期时间的模型的过期时间;[0092] S57:判断过期模型缓存副本以及与之同时过期的其他模型缓存副本是否都为全局唯一副本,如果是,执行S58;否则,执行S59;[0093] S58:延长过期模型缓存副本以及与之同时过期的其他模型缓存副本的过期时间,延长时长为Δt;[0094] S59:删除该过期模型缓存副本以及与之同时过期的其他模型缓存副本。[0095] 基于上述,本申请实施例以连带式维护机制对过期的人工智能模型进行统一维护,有效避免只删除一部分过期模型缓存副本造成的在响应后续模型请求时需要重新对个别模型进行单个传输而造成的传输代价的浪费。[0096] S60:更新被删除模型的全局缓存计数器,并将被删除模型在当前云服务器上的本地过期信息更新为0,表示本地不存在该模型的缓存副本。[0097] 基于上述,本申请实施例的人工智能模型请求响应机制优化方法采用连带式打包传输机制,在传输模型请求所需要的目标模型的同时,连带传输所有能够与该目标模型构成频繁模型组的其他模型,以避免在下一次响应模型请求时由于单个模型传输不可打包而造成的传输代价浪费,有效的降低了响应人工智能模型请求的代价成本。本申请实施例的连带打包传输机制适用于所有在线到来的人工智能模型请求,不需要对模型请求做任何预先假设,具有较高的普遍性和实用性。同时,本发明采取连带式缓存副本维护机制对本地的过期模型缓存副本进行连带式删除维护,避免了由于非连带式维护机制所造成的额外传输的发生,从而进一步优化了传输代价。[0098] 请参阅图5,为本申请实施例的人工智能模型请求响应机制优化系统结构示意图。本申请实施例的人工智能模型请求响应机制优化系统40包括:[0099] 目标模型获取模块41:用于获取当前人工智能模型请求的目标模型;[0100] 频繁模型筛选模块42:用于采用频繁模式树筛选出能够与目标模型构成频繁模型组的至少一个其他人工智能模型;频繁模型组为同时使用次数大于设定频繁程度阈值的至少两个人工智能模型的组合;[0101] 连带打包传输模块43:用于采用连带打包传输机制将目标模型以及至少一个其他人工智能模型打包传输至模型请求方。[0102] 请参阅图6,为本申请实施例的终端结构示意图。该终端50包括处理器51、与处理器51耦接的存储器52。[0103] 存储器52存储有用于实现上述人工智能模型请求响应机制优化方法的程序指令。[0104] 处理器51用于执行存储器52存储的程序指令以控制人工智能模型请求响应机制优化。[0105] 其中,处理器51还可以称为CPU(CentralProcessingUnit,中央处理单元)。处理器51可能是一种集成电路芯片,具有信号的处理能力。处理器51还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。[0106] 请参阅图7,为本申请实施例的存储介质的结构示意图。本申请实施例的存储介质存储有能够实现上述所有方法的程序文件61,其中,该程序文件61可以以软件产品的形式存储在上述存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read‑OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。[0107] 对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本申请中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本申请所示的这些实施例,而是要符合与本申请所公开的原理和新颖特点相一致的最宽的范围。

专利地区:广东

专利申请日期:2021-11-17

专利公开日期:2024-06-18

专利公告号:CN114064589B


以上信息来自国家知识产权局,如信息有误请联系我方更正!
该专利所有权非本平台所有,我方无法提供专利权所有者联系方式,请勿联系我方。
电话咨询
到底部
搜本页
回顶部