Google 近期针对 BigQuery 推出了面向开源模型的第三方生成式 AI 推理功能。这一更新允许数据团队直接使用简单的 SQL 语句,部署并运行来自 Hugging Face 或 Vertex AI Model Garden 的任何模型。该接口目前处于预览阶段,其最大的亮点在于消除了对独立机器学习(ML)基础设施的需求,系统会自动启动计算资源、管理端点,并在任务完成后通过 BigQuery ...
1月27日,DeepSeek团队发布了DeepSeek-OCR-2模型。来自深圳的智子芯元公司运用自主研发的KernelCAT工具,仅用38分钟就完成了这款模型在华为昇腾平台的自动化部署和推理验证。
6 天on MSN
蚂蚁灵波再发力!开源具身世界模型LingBot-VA 刷新多项行业纪录
蚂蚁灵波科技近日宣布开源其最新研发的具身世界模型LingBot-VA,这一成果标志着具身智能领域在"世界模型赋能操作"方向上取得重要突破。该模型创新性地将大规模视频生成能力与机器人控制技术深度融合,通过自回归视频-动作世界建模框架,使机器人能够同步推 ...
蚂蚁灵波开源具身世界模型LingBot-VA,机器人,va,lingbot,时序,具身 ...
最亮眼的是 MoE (混合专家)模型的性能提升,达到了6到11倍的加速。有开发者直接吐槽:“如果你把性能提升了2倍,说明你做了聪明的事;如果提升了10倍,说明你之前在做蠢事。”确实,v4 版本对 MoE 模型使用了非常简单的 for 循环处理专家模块,导致计算资源严重闲置。现在团队重写了这部分逻辑,并引入了更通用的自定义 kernel 方案。
ALMATY, Jan. 26 (Xinhua) -- Kazakhstan-based oil producer Tengizchevroil (TCO) on Monday announced a phased resumption of crude oil production at its fields in the Atyrau region in western Kazakhstan ...
这次更新标志着这一全球最流行的 AI 基础设施库,正式跨越了从 v4 到 v5 长达五年的技术周期。 作为 Hugging Face 最核心的开源项目,自 2020 年 11 月 v4 版本发布以来,Transformers 的日下载量已从当时的 2 万次激增至如今的超过300 万次,总安装量突破12 亿次 它定义 ...
芯东西10月28日报道,昨夜,高通发布面向数据中心的下一代AI推理优化解决方案,包括基于云端AI芯片Qualcomm AI200和AI250的加速卡及机架。 两款芯片均采用高通Hexagon NPU,预计将分别于2026年和2027年实现商用。 高通称,凭借该公司在NPU技术方面的优势,这些解决 ...
IT之家10 月 27 日消息,高通公司今日发布其新一代数据中心 AI 推理优化解决方案:基于高通 AI200 和 AI250 芯片的加速卡和机架。 高通 AI200 推出一款专为机架级 AI 推理设计的解决方案,旨在提供低拥有总成本(TCO)和优化的性能,用于大型语言和多模态模型(LLM ...
感谢IT之家网友 咩咩洋、软媒用户1392612、软媒用户57758、仙人掌、KGTAF、乌蝇哥的左手的线索投递! IT之家9 月 12 日消息,阿里云通义团队今日宣布推出其下一代基础模型架构 Qwen3-Next,并开源了基于该架构的 Qwen3-Next-80B-A3B 系列模型(Instruct 与 Thinking)。
近日举行的WAVE SUMMIT深度学习开发者大会2025现场,百度正式开源最新的思考模型ERNIE-4.5-21B-A3B-Thinking。 据介绍,ERNIE-4.5-21B-A3B-Thinking 采用了混合专家(MoE) 架构,总参数规模达210亿,每个 token 激活 30 亿参数,通过指令微调及强化学习训练。ERNIE-4.5-21B-A3B-Thinking ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果