徐宏力

电 话:0512-87161305

E-Mail:xuhongli@ustc.edu.cn

课题组主页:https://int-ustc.github.io/     

主要研究方向:云计算/软件定义网络,智能网络/边缘计算,物联网/计算机网络


徐宏力,男,1980年8月生,教授,国家基金委优秀青年科学基金获得者,现任计算机科学与技术学院党委书记。2002年毕业于中国科学技术大学计算机科学技术系,获硕博连读资格;2007年6月获得计算机软件与理论专业的博士学位,毕业留校任教。近年来,作为负责人主持了国家自然科学基金(4项)、博士后特别资助、博士后基金(一等)、中科院院长基金及省科学基金等项目。而作为核心技术骨干参与了973(2项)、863(1项)、国家科技重大专项(3项)、国家发改委CNGI(2项)、国家自然基金重点等十多个项目。


近年来,已在主流的国际期刊和会议上发表SCI/EI论文120多篇,包括IEEE/ACM Trans.论文18篇,CCF A类论文22篇,B类论文17篇。2018年,4篇论文共16次入选IEEE/ACM Trans. on Networking的受欢迎论文,其中1月份有3篇论文入选,当月入选论文最多。担任国际顶级期刊IEEE JSAC的“网络虚拟化”系列专刊的副编辑。


导师选题:

面向AI集群的任务调度及碎片整理研究 随着AI模型训练规模的扩大,AI基础设施的资源需求也不断增加。如今不同规模的训练任务通常会在同一个大集群上运行。当训练/推理作业通过队列提交到集群上,由于作业生命周期有差异,随着任务异步结束,集群中会存在资源碎片。碎片产生后可通过重新调度已运行的作业,来减少碎片。本课题通过研究碎片作业的重调度时机和重调度路径策略,提升集群资源利用率。
异构卡场景下的大模型训练通信优化研究异构卡场景下的大模型训练通信优化研究项目简介:在大模型的分布式训练过程中,GPU间的通信常常成为主要瓶颈之一。作为大模型训练的核心基础,一个好的通信策略不仅需要实现高效的数据传输、负载均衡和拓扑感知,还必须充分考虑由于计算资源异构性带来的挑战。在实际的分布式训练中,不同类型的GPU具有不同的计算能力、内存带宽和通信性能,这种异构性会导致计算节点间的通信不均衡,进而影响模型训练的速度和稳定性。本课题旨在针对异构GPU集群,通过优化通信策略,提升整体训练效率。
参数高效的个性化联邦大模型微调研究微调是大语言模型部署和应用过程中十分重要的阶段。传统的方法是将用户的私有数据发送至云平台进行微调,将增加隐私泄漏风险,无法适用于隐私安全需求较高的应用。联邦微调通过集成边缘计算和联邦学习技术将微调任务卸载至端侧设备进行,避免了原始数据的传输。本课题以边缘网络资源有限、系统异构、数据不均、应用多元等挑战为研究立足点,综合分析联邦微调中要针对异构的设备特性进行个性化配置的需求,重点研究参数高效的个性化联邦大模型微调关键技术。通过本课题的研究,将有助于推动大语言模型在如智能手机等端侧设备上的应用落地。
基于推测解码优化的高效模型推理研究随着深度学习的快速发展,大型语言模型(LLM)的应用日益广泛。然而,LLM在生成文本时由于其自回归推理模式存在较高的推理延迟,这限制了其在实时应用场景的效能。推测解码是一种先选后验证的解码范式,在每个解码步骤中,此方法首先起草几个 token,然后用目标模型并行验证它们,这使得LLM能够每步同时解码多个token,从而加速推理。本研究将深入分析推测解码的技术机制,并调研其在非集中式环境中的应用潜力(例如探索其在云边协同推理、多模型协作推理以及多任务和跨域协作推理中的有效性),旨在推动LLM技术在实际应用中的广泛部署。