一种利用启发式算法降低联邦学习中设备空跑时间的方法
成果类型:: 发明专利
发布时间: 2022-05-19 14:14:39
本发明公开了一种利用启发式算法降低联邦学习中设备跑时间的方法。本发明利用启发式算法中的模拟退火算法求解局部最优解,得出令各参与方设备空跑时间缩短的解决方案。相较于传统的联邦学习算法,本发明设定在每轮运算中各参与方迭代的次数可以不同。利用模拟退火算法,根据数据预处理阶段得到的参与方平均迭代时间求解每轮参与方的最优迭代次数。并将传统联邦学习算法中参与方本地训练和中央服务器求解下一轮参与方名单的串行设计改为并行设计,从而尽可能降低参与方空等时间。
本发明的目的在于降低联邦学习中参与方与中央服务器通信之后的等待时间,从而提出一种面向联邦学习的基于启发式算法的动态化降低参与方设备空跑时间的方法。该方法在经典的FedAvg算法之上,利用数据预处理得出的参与此次联邦学习的所有客户端的平均迭代时间,结合启发式模拟退火算法,动态得出联邦学习每轮运算中各参与方局部最优迭代次数,从而最大程度的降低各参与方的设备空跑总时间,提升资源利用率加快模型收敛。约定参与此次联邦学习的所有客户为客户端,参与每轮训练的客户端为参与方。 该发明采用的技术方案为:在数据预处理阶段获得参与此次联邦学习的所有客户端的平均迭代时间、中央服务器利用启发式模拟退火算法并行计算下一轮参与方名单和迭代次数。
近年来,随着固网宽带、移动互联网、物联网的的快速发展,数据正呈爆炸式的增长。海量数据成为人工智能领域的燃料,同时也带来新的挑战。在大数据大模型的双重挑战下,人们提出用计算机集群来代替单机进行模型训练,以解决单机无法存储海量数据、算力有限训练复杂模型耗时过久甚至无法训练的瓶颈,因此分布式机机器学习应运而生。而联邦学习是一种带有隐私保护、安全加密技术的分布式机器学习框架,它既解决了单个主机GPU/CPU扩展能力有限的问题,能实现大量节点同时训练大规模模型,同时考虑了用户对数据隐私性和安全性的需要。传统的分布式机器学习采用集中收集各方数据,再将数据进行分布式存储,把任务分散到多个GPU/CPU机器上进行处理的方法,从而提升运算效率。但这种集中式管理数据的模式在实际的生产生活中往往是难以实现的。一个AI项目可能涉及多个领域,需要融合各个公司、各个部门的数据。
发明人有万健、张雪容、张纪林、曾艳、殷昱煜。万健,男,汉族,1968年02月生,江苏海安人,在职研究生,管理学博士,副研究员,1991年05月加入中国共产党,1991年08月参加工作。现任江苏海事职业技术学院院长。张纪林,男,1980年1月生,山东济南人,工学博士,杭州电子科技大学网络空间安全副院长,教授,博士生导师,现任学校复杂系统建模与仿真教育部重点实验室副主任,云技术中心副主任,舟山海洋电子信息研究院院长,浙江省计算机学会教育信息化专委会副主任、云计算专委会秘书长。殷昱煜,男,杭州电子科技大学副教授,硕士生导师。
通过本发明提供的利用启发式模拟退火算法动态降低联邦学习中参与方设备空跑总时间方法,可根据数据预处理阶段参与此次联邦学习的所有客户端上传的平均迭代时间,设计在每轮训练中各参与方迭代次数的局部最优解,避免了迭代速度快的参与方空等速度慢的一方,充分利用硬件资源。 同时由于联邦学习中通信的不稳定性已成为制约其性能进一步提高的瓶颈,因地制宜的根据各方算力设置每轮迭代次数,可以适当的减少整个模型训练过程中的通信次数。 此外,由于联邦学习的学习过程分为自治和联合两个部分,自治部分由各参与方并行的在本地训练数据,联合部分需要将各参与方的训练结果参数上传到中央服务器,并等待中央服务器聚合模型参数,随机选择出下一轮新的参与方名单。但由于本方案在原先的模式中,增加了一步利用启发式模拟退火算法确定各参与方迭代次数的步骤。因此为了避免参与方等待的时间过久,本发明设计在参与方进行本地训练模型时,中央服务器并行的随机选择下一轮参与方名单,并利用启发式模拟退火算法制定迭代次数的局部最优解。
技术入股,本发明属联邦学习领域,具体涉及一种利用启发式算法中的模拟退火算法根据联邦学习中每轮运算各参与方的训练能力,动态设计一种局部最优的参与方本轮迭代次数,从而降低联邦学习中各个参与方设备空跑总时间的方法。技术合作,遣派学者专家到国外或者其他地区的高校,研究机构或者生产企业与对方的学者,专家合作进行研究设计,或者双方学者,专家轮流到对方学校,研究机构或者企业进行研究。