摆脱编码器依赖!Encoder-free 3D多模态大模型,性能超越13B现有SOTA
上海AI Lab等机构提出的ENEL模型,首次将无编码器架构应用于3D多模态大模型。该模型通过自监督损失将3D编码器功能融入LLM,解决了传统基于编码器架构存在的点云分辨率限制和嵌入语义差异问题。ENEL采用了层次几何聚合策略,增强对3D局部细节的感知能力。实验结果显示,在Objaverse基准测试中,ENEL-7B性能超越同等规模甚至更大的ShapeLLM-13B模型,证明了其有效性和优越性。来源:https://mp.weixin.qq.com/s/SREUDeo-ZU7UwcDNK7Hxxw
页:
[1]