北航、人大和九坤投资共同撰写的论文 《Scaling Laws for Code: Every Programming Language Matters》 整理而成。 在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。
You might be staring at your budget, wondering how you’re supposed to cover rent, debt, and everything else on $20–$25 an ...
在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。如果忽略这些差异,笼统地应用通用的 Scaling Laws,往往会导致性能预测偏差和算力浪费。
Java will be 30 years old in 2025. This is a good time to look back, but also forward.
There is a common misconception that AI applications can be sufficiently tested and derisked by running a pilot in a ...
But an internal research project is looking at ways to automate the translation of millions of lines of code per month into ...
科技行者 on MSN
北航团队首次揭秘多语言编程的奥秘:为什么Python比Rust更“饿”数据?
这项由北京航空航天大学的杨健、国鑫、林静等研究者联合优矿公司和中国人民大学人工智能学院团队完成的突破性研究,发表于2025年12月的arXiv预印本(论文编号:2512.13472v1),是全球首次系统性探索多语言编程训练规律的重要成果。
No, Microsoft is not rewriting Windows in Rust. The clarification comes after a LinkedIn post by a Microsoft Distinguished ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果