在QCon伦敦大会的演讲中,explosion.ai联合创始人Ines Montani指出:规模经济不足以在AI领域形成垄断,开源技术和模型将让所有人跟上"生成式AI革命"的步伐。
Montani通过现场举手调查展示了开源技术的普及性,并强调机器学习领域已形成共享代码、数据和模型权重的完整开源生态。她将当前AI模型分为三类:
-
任务专用模型(如spaCy、DaCy等)
- 体积小、运行成本低
- 泛化能力弱,需特定数据微调
-
编码器模型(如Bert系列、T5等)
- 中等规模,可在本地运行
- 需要微调实现特定功能
- 通常作为任务专用模型的基础
-
大型生成模型(如Falcon、Mixtral等)
- 通过简单粗暴的规模扩大实现创新
- 依赖提示工程约束输出范围
- 部署资源需求高
Montani剖析了科技巨头通过请求批处理实现规模效益的机制——如同伦敦地铁通过高频班次分摊固定成本。但她强调,当前AI产品实际包含两个独立层:
- 人机交互层(收集用户行为数据优化体验)
- 模型层(基于公开研究和数据构建)
这种架构使得任何公司都难以在基础模型层面形成垄断。Montani将大模型实践任务分为:
- 生成类任务(摘要、推理、风格迁移等)
- 预测类任务(文本分类、实体识别等)
她梳理了AI开发范式的演进路径:
- 规则编程时代
- 样本训练时代
- 上下文学习时代(混合使用规则、指令和示例)
通过知识蒸馏和迁移学习技术,开发者可快速将原型转化为生产系统,获得与开源软件开发类似的优势:模块化、无供应商锁定、可测试性等。Montani最后指出,AI领域唯一可行的垄断途径是政策监管,呼吁行业应聚焦用例监管而非技术限制,避免人为制造垄断。