标签:知识迁移

第四届终身学习智能体会议(CoLLAs)主题征稿中

CoLLAs 2025将关注持续学习领域的核心问题,推动人工智能系统在其生命周期中不断适应和进化。会议探讨的关键主题包括终身学习的理论研究、持续学习范式(如增...

模型参数作知识通用载体,MergeNet离真正的异构知识迁移更进一步

浙江大学和上海交通大学的研究团队提出了一种名为MergeNet的知识迁移框架,旨在解决边缘计算设备如智能物联网设备在部署深度神经网络时面临的计算资源和存储...

统一图像生成,无需繁杂插件!智源发布扩散模型框架OmniGen

智源研究院最近推出了一款名为OmniGen的新型扩散模型框架,该框架在图像生成领域具有多项创新特性。OmniGen能够天然支持多种图像生成任务,包括文生图、图像...

一个模型走天下!智源提出全新扩散架构OmniGen,AI生图进入「一键生成」时代

智源最近推出了一款名为OmniGen的新型扩散模型架构,旨在实现图像生成任务的统一。OmniGen模型以其统一性、简单性和知识迁移能力为特点,能够处理包括文生图...

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

智源近日推出了OmniGen,这是一种新的扩散模型架构,旨在统一图像生成的多模态模型。OmniGen以其统一性、简单性和知识迁移能力为特点,支持多种图像生成任务...

MoE也有Scaling Law,「百万专家」利用率近100%!DeepMind华人挑战MoE极限

谷歌DeepMind的研究科学家Xu Owen He最近提出了一种名为PEER(参数高效专家检索)的新技术,该技术能够将混合专家(MoE)模型的专家数量扩展到百万级别,同时...

清华、哈工大把大模型压缩到了1bit,把大模型放在手机里跑的愿望就快要实现了!

摘要总结:清华大学和哈尔滨工业大学的研究团队在模型量化领域取得了重要进展,他们提出了一种名为「OneBit」的方法,成功将大型语言模型(LLM)压缩至1bit,...