我的感觉是在 Coding 方面,这次 MiniMax 新发的 M2.1 版本,应该是追平 Sonnet 4.5、Gemini 3 Pro、GPT‑5.2-Codex 等一众前沿模型了。 昨天我一直在用 MiniMax M2.1,做真实的 ...
北航、人大和九坤投资共同撰写的论文 《Scaling Laws for Code: Every Programming Language Matters》 整理而成。 在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。
该说不说,这实际上已经涉及到了开发中的深水区,后端数据处理。 你要找问一个程序员问问,给网页加个全球排行榜有多麻烦,他高低也会告诉你要买服务器、配数据库、写API接口、做并发处理…… ...