泄露信息表明OpenAI开源AI模型即将发布
数字线索显示,OpenAI即将推出强大的新型开源AI模型,可能在数小时内发布。证据来自开发者密切关注的一系列数字痕迹,核心证据是显示多个模型仓库的截图,名称包括yofo-deepcurrent/gpt-oss-120b和yofo-wildflower/gpt-oss-20b。这些仓库已被删除,但账户显示为OpenAI团队成员。
“gpt-oss"标签是关键证据,明显指向"GPT开源软件”。对于日益保护其顶级模型的公司来说,这某种程度上是回归初心。出现多个具有不同代号和规模的版本,表明一个精心规划的模型家族即将亮相。
通过泄露的配置文件,甚至可以窥见疑似1200亿参数版本的内部结构。该模型似乎基于混合专家(MoE)架构构建——不是试图知晓一切的单一整体大脑,而更像由128位专业顾问组成的委员会。当查询输入时,系统智能选择四位最合适的专家处理任务。这使得模型既具备庞大参数量的广博知识,又保持较小系统的速度和敏捷性,因为每次仅部分参数工作。
这种设计使OpenAI的开源AI模型直接与该领域的热门产品竞争,如某机构的Mixtral和某机构的Llama系列。
规格还不止于此。OpenAI的开源AI模型似乎拥有巨大词汇表,应能更高效处理更广泛语言,并采用滑动窗口注意力机制轻松处理长文本流。实践中,这都表明模型既强大又实用。
为何OpenAI此时采取此行动?多年来,该公司因偏离其开放初衷而面临温和批评和直接指责。发布强大的gpt-oss将是针对感到被抛弃的开发者和研究人员的大规模魅力攻势。
当然,这也是精明的竞争策略。某机构和某机构已展示蓬勃发展的开源生态系统如何驱动创新。通过发布如此强大的开源AI模型,OpenAI不仅加入竞争,更试图重新定义赛道。
在OpenAI官方确认前,这技术上仍属传闻。但这是有实质内容的传闻,有代码和配置文件支持。从最著名AI机构发布高性能1200亿参数开源MoE模型,将是里程碑事件,且似乎即将发生。
(图片来源:Mariia Shalabaieva)