如何训练最强代码大模型?北大aiXcoder-7B贡献前沿实践
北京大学aiXcoder团队发布的aiXcoder-7B代码大模型,通过引入抽象语法树(AST)结构和大规模预训练,提升了代码生成和补全能力。该模型采用结构化FIM、多文件排序等创新预训练方法,有效解决了现有代码大模型忽略代码结构性和上下文关系的问题。aiXcoder-7B在多个评测集中表现出色,尤其在跨文件上下文理解和代码补全方面。这项研究被ICSE 2025收录,标志着其技术前瞻性和应用创新性获得学术界认可。同时,团队正致力于进一步提升模型对实际开发场景的理解能力。来源:https://mp.weixin.qq.com/s/ZANgQ_JP2EjXfb0wx62RGA
页:
[1]