周大 发表于 2025-5-27 15:18:11

Meta推出KernelLLM:8B参数模型高效生成Triton GPU内核,性能超越GPT-4o

Meta推出的KernelLLM是一个基于Llama 3.1微调的8B参数模型,可将PyTorch代码自动转换为高效的Triton GPU内核。尽管参数量较小,其单次推理性能却超越了GPT-4o和DeepSeek V3,并在多次生成时得分显著提升。该模型使用超过25000对(PyTorch,Triton)代码示例进行训练,在KernelBench-Triton测试中表现出色,无论是简单操作还是复杂模型架构均能稳定应对。
来源:https://mp.weixin.qq.com/s/-g_Mkf4fErnirGoiNZpf2A
页: [1]
查看完整版本: Meta推出KernelLLM:8B参数模型高效生成Triton GPU内核,性能超越GPT-4o