如何训练最强代码大模型?北大aiXcoder-7B贡献前沿实践

[复制链接]
周大 发表于 2025-2-12 14:50:17 | 显示全部楼层 |阅读模式
北京大学aiXcoder团队发布的aiXcoder-7B代码大模型,通过引入抽象语法树(AST)结构和大规模预训练,提升了代码生成和补全能力。该模型采用结构化FIM、多文件排序等创新预训练方法,有效解决了现有代码大模型忽略代码结构性和上下文关系的问题。aiXcoder-7B在多个评测集中表现出色,尤其在跨文件上下文理解和代码补全方面。这项研究被ICSE 2025收录,标志着其技术前瞻性和应用创新性获得学术界认可。同时,团队正致力于进一步提升模型对实际开发场景的理解能力。
来源:https://mp.weixin.qq.com/s/ZANgQ_JP2EjXfb0wx62RGA

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-6-18 04:35 , Processed in 0.317456 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表