周大 发表于 2024-5-6 16:18:41

58行代码让Llama 3实现百万长文本

近日,开源模型Llama 3迎来重大升级,社区仅用58行代码将其上下文扩展至百万级别,破解原8k限制。Gradient AI与开发者Eric Hartford合作实现这一飞跃,采用创新训练策略提速33倍,并在关键测试中取得满分成绩。此举彰显开源力量,简化模型增强流程,引发中文社区关注。
来源:https://mp.weixin.qq.com/s/gG6qTLIpOcURt5s8GFy96w
页: [1]
查看完整版本: 58行代码让Llama 3实现百万长文本