LLM进入「拖拽时代」!只靠Prompt,几秒定制一个大模型,效率飙升12000倍
来自新加坡国立大学与得克萨斯大学奥斯汀分校的研究人员提出一种“拖拽式大语言模型”(DnD),可通过无标签提示词直接生成任务专用的LoRA权重,实现无需微调的模型适配。实验表明,其计算效率比传统微调高12000倍,在零样本学习任务中表现优于训练后的LoRA模型达30%,并在少量样本下仍保持稳定性能,展现出强大泛化能力。来源:https://mp.weixin.qq.com/s/geOn7zyJRQwfJra38EjcxQ
页:
[1]