连德富

E-Mail:liandefu@ustc.edu.cn

个人主页:http://staff.ustc.edu.cn/~liandefu 


主要研究方向:可信人工智能、高维向量检索、机器学习理论


连德富,国家优青,中国科学技术大学特任教授,博士生导师,现任计算机科学与技术学院副院长。曾任电子科技大学副教授、悉尼科技大学访问学者,曾入选微软亚洲研究院铸星计划。主要研究方向包括大规模分类、深度学习、因果机器学习等,研发了RecStudio开源推荐系统和FuxiTS时序预测和检测系统,主持了国家自然科学基金优秀青年科学基金、面上项目,科技部科技创新2030重大项目课题,国防科技173重点项目等。他在KDD、NeurIPS、TPAMI、TKDE等CCF-A类会议和期刊发表论文90余篇。曾获得教育部自然科学一等奖、CCF自然科学一等奖、安徽省教学成果一等奖、四川省教学成果二等奖、APWeb 2016最佳学生论文、WWW 2021最佳论文候选、WISE 2022最佳论文奖等。


导师选题:

量化大模型的持续学习方法研究模型量化是一种通过减少模型存储和计算需求来优化模型部署和应用的重要技术手段,它有望突破制约大模型部署的算力瓶颈,是当前大模型领域的前沿热点方向。然而量化后的模型受限于模型精度与信息损失,往往难以有效适应端侧用户的新数据与新任务需求。本课题拟研究针对量化大模型的持续学习技术,有机融合模型量化与持续学习技术,突破模型空间有限,精度不足等技术挑战,实现高效的能力扩展并避免原有能力的遗忘,以更好地服务用户。
数据配比与增强对灾难性遗忘的影响与泛化界研究传统机器学习主要关注模型对当前任务的适应性与泛化性,提升模型在目标数据集上的精度。在大模型时代,模型通用能力的维护至关重要的,要求在适应新数据或新任务的同事,最低程度影响过往任务性能的表现。目前,业界缺少从下游训练数据配比和增强角度对模型能力维护方面的研究,本课题的目标是利用大模型原有的知识与能力,构建充分的理论与实践框架完成数据增强,实现适应性与遗忘的精准权衡。
大模型训练阶段的灾难性遗忘机理研究大模型的构建通常分为多个阶段,即预训练、指令微调、RLHF。每个阶段通过各自的训练数据与损失函数,为模型构建不同方面的功能。然而,不同训练阶段对模型在遗忘方面的影响机理并不清晰,比如不同阶段最容易遗忘的能力是什么(表征?知识?推理路径?)?不同阶段的参数权重迁移情况?遗忘能否有统一的方式被避免?本课题的研究能够帮我们建立对于大模型全流程的遗忘理解。
基于大模型与多智能体协同的自动化科研实践框架随着大语言模型逐渐涌现出智能化的人机交互、推理决策及工具使用等能力,它们已成为各种自动化智能系统的核心组件。例如,手机中的虚拟助手自动排程、AI 驱动的编程智能体、《我的世界》游戏中的智能功能等,均展示了大语言模型在多个领域的广泛潜力。尽管其应用日益广泛,研究表明大语言模型在执行复杂科研任务时仍有较大的提升空间。尤其是在跨学科协作与多智能体协同的科研场景中,现有智能系统尚无法完全满足复杂科研的需求。
       本项目旨在构建一个基于大模型与多智能体协同的自动化科研实践框架,以提升科研过程的效率与创新。通过结合大模型的语言理解与推理能力与科研任务的特性,如科研问
     题挖掘、相关方法调研、方法框架构建及实验设计验证,我们将重点研究如何优化多智能体间的协作、信息共享和任务分配策略,提升科研过程的自动化水平。同时,自动化科研实践智能体有望帮助科研人员发现更多的科学问题与挑战,实现在科研中科研的深度循环,持续推动科技进步。
基于强化学习的大模型智能体训练方法研究OpenAI  o1 大模型与 Google    AgentQ 大模型展示了强化学习在提升大模型推理能力方面的巨大潜力。当前学界与工业界的前沿观点都认为大模型的知识记忆能力与强化学习的自适应决策能力的融合是一个具有前景的路径。然而如何实现两者的有机融合,实现互补,仍然是一个具有挑战的问题。针对这一问题,本课题拟从推理能力获取的角度,进一步探索基于强化学习的大模型智能体训练方法研究,进一步突破大模型在复杂推理方面的瓶颈。
基于强化学习的大模型智能体高效推理方法研究虽然 OpenAI    o1 大模型与 Google  AgentQ 大模型展示了强化学习在提升大模型推理准确度方面取得巨大突破,然而推理的时滞非常大,制约其在应用中的推广。本项目拟探索面向该推理技术的高效计算与搜索方法,降低推理时滞。