在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。如果忽略这些差异,笼统地应用通用的 Scaling Laws,往往会导致性能预测偏差和算力浪费。
IT之家 12 月 24 日消息,MiniMax 昨日宣布为其 MiniMax M2 开源模型推出 M2.1 版本更新。此次更新致力于提升真实世界复杂任务中的表现:重点聚焦于更多编程语言和办公场景的可用性。MiniMax-M2.1 ...
大家好,我是爱折腾“歪脖扣定”的冷逸。马上圣诞节到了,先给大家表演一个隔空抓娃娃。需要这个HTML的朋友,可以在后台私信【抓娃娃】领取。只要电脑有摄像头,用浏览器打开就能玩。怎么做的呢?用MiniMax最新的M2.1模型+Claude ...
这两天,中国 AI 行业关注的核心无疑是 MiniMax。 12 月 21 日,MiniMax(稀宇科技)正式向港交所递交招股书,披露的一连串数字瞬间引爆了舆论场:账上坐拥超 10 亿美元的现金储备,2025 年前九个月营收同比激增 174.7%,而在保持高强度研发的同时,经调整净亏损控制在 1.86 亿美元。 资本市场的喧嚣还没结束,23 日,MiniMax 又反手甩出了一张技术牌:正式上线 M ...