李永坤

电 话:(0551)63603412

E-Mail:ykli@ustc.edu.cn  

个人主页:http://staff.ustc.edu.cn/~ykli 


主要研究方向:存储系统、内存系统、云计算、Serverless、智能计算与分布式系统。

  

李永坤,男,特任教授,IEEE、ACM、CCF会员,信息存储专委委员。本科毕业于中国科学技术大学,博士毕业于香港中文大学,师从John C.S. Lui教授。主要致力于面向大规模数据密集型计算的存储系统研究,共发表论文70余篇,包括FAST、ATC、ICDE、SIGMETRICS、TOS、TC、TPDS等。主持国家自然科学基金青年与面上项目、安徽省自然科学基金项目、华为、PingCAP、阿里等提供的多项企业合作项目,以单位负责人参与科技部重点研发计划课题、重点研发青年科学家项目。入选中科院青促会并获评优秀会员,获评唐仲英基金会仲英青年学者、翟光龙学者等。

  

导师选题:

面向服务器无感计算的多租户大模型推理系统大模型是当前最重要的技术变革之一,构建多租户大模型推理系统,是实现大模型应用落地必须的基础系统。由于大模型推理任务在多租户场景中呈现突发性负载特征,而服务器无感计算云服务范式凭借其细粒度计费模式和高弹性优势,能够针对这一特性提升GPU集群利用率,降低推理成本。面向服务器无感计算,构建多租户大模型推理系统,对于充分释放集群性能至关重要。主要参考文献:ServerlessLLM@OSDI24, vLLM@ SOSP23
面向数据密集型计算的资源池化当前主流的存算一体系统架构面临着计算与存储资源耦合的问题,资源扩容能力差,且难以跨节点共享。未来数据中心的发展趋势是将关键资源解耦,通过高可扩展性的高速互联网络(CXL/NVLINK/RDMA)聚合与共享大规模资源池,突破传统架构的资源约束。该课题主要关注池化后的资源如何高效使用,面向数据库、微服务与大模型等常见业务场景,研究如何降低应用迁移到池化架构的难度,并隐藏跨网络访问带来的性能损失,以充分利用池化架构下的共享能力、可扩展性与容灾能力。主要参考文献:Pond@ASPLOS23Memliner@OSDI22, LegoOS@OSDI18
面向终端大模型推理的操作系统支持随着大模型等技术的突破、智能手机等终端设备的广泛普及,面向智能终端的大模型推理具有非常重要的价值,而面向该场景的操作系统尤为重要。端侧推理通过在本地终端设备上执行计算,有效降低了延迟,提高实时性,并增强用户隐私保护。然而,端侧推理面临计算、内存资源有限,以及功耗约束等挑战,需要重新设计合适的内存管理与存储系统等,并充分结合大模型推理计算框架等技术,以确保在终端设备的有效资源下实现高效推理,该课题将以开源鸿蒙OS为基础,研究面向终端大模型推理的新型内存管理与存储系统技术。主要参考文献:Powerinfer@arxiv2023, Powerinfer2@arxiv2024