- 华为诺亚发布无限上下文大模型 EM-LLM (0篇回复)
- AI重现奥运巾帼风采 (0篇回复)
- 1890美元,就能从头训练一个还不错的12亿参数扩散模型 (0篇回复)
- GenAI双刃剑效应:激发个人创意,但集体作品趋同质化 (0篇回复)
- 英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型! (0篇回复)
- 1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存 (0篇回复)
- AI涌入巴黎奥运,颠覆观赛的黑科技大起底 (0篇回复)
- 苹果智能“跳票”?错过9月iOS 18发布,预计10月推出 (0篇回复)
- FBI-LLM低比特基础大语言模型来了,首个完全从头训练的二值化语言模型 (0篇回复)
- Meta科学家最新采访,揭秘Llama 3.1是如何炼成的 (0篇回复)
- SearchGPT演示翻车 (0篇回复)
- OpenAI发布最新大模型安全对齐奖励方法——RBR (0篇回复)
- GPT-4o语音模式即将上线 (0篇回复)
- AI“近亲繁殖” 混合数据防AI崩溃 (0篇回复)
- 面壁智能推出IoA框架 将成千上万的 Agent 连接起来,互相协作! (0篇回复)
- BPO方法强化多模态大模型 (0篇回复)
- 万亿级开源多模态数据集 MINT-1T 发布 (0篇回复)
- KAN与MLP全面对比 号称替代MLP的KAN只赢一局 (0篇回复)
- 英伟达配合Llama3.1推出定制模型、推理服务 (0篇回复)
- 英特尔发布光学OCI芯片 (0篇回复)