北大提出VARGPT:单一框架实现视觉「理解」与「生成」

[复制链接]
周大 发表于 2025-1-28 19:56:45 | 显示全部楼层 |阅读模式
北大团队开发的VARGPT实现了视觉理解和生成任务的统一,采用预测next-token和next-scale机制。该模型基于LLaVA-1.5-7B架构,创新性引入视觉解码器等组件,通过三阶段训练流程(1.28M预训练+665K微调+140万指令数据),在视觉问答等多个基准测试中表现优异。VARGPT支持混合模态输入输出,能够生成高质量图像,现已开源。
来源:https://mp.weixin.qq.com/s/mXFn-9QwU9pO1HWaz8uV0A

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-21 12:42 , Processed in 0.290108 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表