Replicate正在加入Cloudflare
今天我们要分享一个重要消息:领先的AI模型运行平台Replicate正在加入Cloudflare。
我们最初与Replicate交流,是因为我们有许多共同点,不仅仅是对明亮色彩搭配的热情。Cloudflare Workers开发者平台的使命一直是让构建和部署全栈应用尽可能简单。与此同时,Replicate也一直致力于让部署AI模型变得像写一行代码一样简单。我们意识到,通过将Replicate平台直接整合到Cloudflare中,我们可以共同构建出更强大的产品。
我们很高兴分享这个消息,更兴奋于这对客户意味着什么。将Replicate的工具引入Cloudflare,将使我们的开发者平台继续成为在互联网上构建和部署任何AI或智能体工作流的最佳场所。
这对您意味着什么?
在我们花更多时间讨论AI的未来之前,我们希望先回答Replicate和Cloudflare用户最关心的问题。简而言之:
对于现有的Replicate用户:您的API和工作流将继续正常运行,不会中断。您很快将受益于Cloudflare全球网络带来的额外性能和可靠性。 对于现有的Workers AI用户:准备好迎接模型目录的大规模扩展,以及直接在Workers AI上运行微调模型和自定义模型的新能力。
现在,让我们回到为什么我们对共同的未来如此兴奋。
AI革命并未上电视,但它始于开源
在AI被称为AI并成为每个话题的核心之前,它几十年来一直被称为“机器学习”。那是一个专业化、近乎学术的领域。进展稳定但相互孤立,突破发生在少数资金雄厚的大型研究实验室内。模型是单一的,数据是专有的,工具对大多数开发者来说遥不可及。当开源协作文化(正是这股力量构建了现代互联网)与机器学习碰撞时,一切都改变了,研究人员和公司开始不仅发表论文,还公开他们的模型权重和代码。
这引发了令人难以置信的创新爆炸。仅仅过去几年的变化速度就令人震惊;18个月前(有时感觉就在几天前)还是最先进的技术,现在已成为基准线。这种加速在生成式AI中最为明显。我们仿佛在眨眼之间就从诡异、模糊的奇物进入了逼真的图像生成。像Stable Diffusion这样的开源模型立即为开发者释放了创造力,而这仅仅是个开始。如果您今天查看Replicate的模型目录,您会看到几乎各种风格的数千个图像模型,每个都在前一个的基础上迭代。这不仅发生在图像模型上,也发生在视频、音频、语言模型等等领域……
但这种由社区驱动的惊人进步带来了一个巨大的实际挑战:您如何实际运行这些模型?每个新模型都有不同的依赖项,需要特定的GPU硬件(并且数量要足够),并且需要复杂的服务基础设施来扩展。开发者发现自己花费在折腾CUDA驱动和requirements.txt文件上的时间比实际构建应用程序的时间还多。
这正是Replicate解决的问题。他们构建了一个平台,抽象了所有这些复杂性(使用他们的开源工具Cog将模型打包成标准的、可复现的容器),让任何开发者或数据科学家都能通过一个简单的API调用运行即使是最复杂的开源模型。如今,Replicate的目录涵盖了超过50,000个开源模型和微调模型。虽然开源解锁了许多可能性,但Replicate的工具集更进一步,让开发者能够在一个地方访问他们需要的任何模型。通过他们的市场,他们还通过同一个统一的API,提供对GPT-5和Claude Sonnet等领先专有模型的无缝访问。
值得注意的是,Replicate不仅仅构建了一个推理服务;他们还建立了一个社区。许多创新是通过被他人的工作所启发、在其基础上迭代并加以改进而发生的。Replicate已成为开发者在公共游乐场中发现、分享、微调和试验最新模型的权威中心。
强强联合:AI目录遇见AI云
回到Workers平台的使命:我们的目标一直是让开发者能够构建全栈应用,而无需背负基础设施的负担。虽然这一点没有改变,但AI已经改变了应用的需求。
开发者正在构建的应用类型正在变化——三年前,没有人构建智能体或创建AI生成的发布视频。今天他们正在这样做。因此,他们对云或AI云的需求和期望也发生了变化。
为了满足开发者的需求,Cloudflare一直在构建AI云的基础支柱,旨在靠近用户的边缘运行推理。这不仅仅是一个产品,而是一整套堆栈:
- Workers AI:在我们全球网络上的无服务器GPU推理。
- AI Gateway:用于缓存、速率限制和观察任何AI API的控制平面。
- 数据堆栈:包括Vectorize(我们的向量数据库)和R2(用于模型和数据存储)。
- 编排:诸如AI Search(原Autorag)、Agents和Workflows等工具,用于构建复杂的多步骤应用。
- 基础:所有这些都建立在我们核心的开发者平台之上,包括Workers、Durable Objects和我们堆栈的其他部分。
在我们帮助开发者扩展其应用的同时,Replicate也一直肩负着类似的使命——让部署AI模型变得像部署代码一样简单。这就是一切结合的地方。Replicate带来了业界最大、最具活力的模型目录和开发者社区之一。Cloudflare带来了性能惊人的全球网络和无服务器推理平台。携手合作,我们可以提供两全其美的优势:最全面的模型选择,可在快速、可靠且经济高效的推理平台上运行。
我们的共同愿景
对于社区:AI探索的中心
分享模型、发布微调模型、收集星星以及在游乐场中实验的能力是Replicate社区的核心。我们将继续投入并发展这一领域,使其成为AI发现和实验的首选目的地,现在通过Cloudflare的全球网络得到增强,为每个人带来更快、响应更迅速的体验。
推理的未来:一个平台,所有模型
我们的愿景是将两个平台的优点结合起来。我们将把整个Replicate目录——所有50,000多个模型和微调模型——引入Workers AI。这为您提供了终极选择:在Replicate的灵活环境中或Cloudflare的无服务器平台上运行模型,全部来自同一个地方。
但我们不仅仅是在扩展目录。我们很高兴地宣布,我们将把微调能力引入Workers AI,由Replicate的深厚专业知识提供支持。我们还在使Workers AI比以往任何时候都更加灵活。很快,您将能够将您自己的自定义模型带入我们的网络。我们将利用Replicate在Cog方面的专业知识,使这个过程变得无缝、可复现且简单。
AI云:不仅仅是推理
运行模型只是拼图的一部分。当您将AI连接到整个应用程序时,真正的魔力才会发生。想象一下,当Replicate庞大的目录与整个Cloudflare开发者平台深度集成时,您可以构建什么:运行模型并将结果直接存储在R2或Vectorize中;从Worker或Queue触发推理;使用Durable Objects管理AI智能体的状态;或使用WebRTC和WebSocket构建实时的生成式UI。
为了管理这一切,我们将把统一的推理平台与AI Gateway深度集成,为您提供一个单一的控制平面,用于对您所有的模型进行可观测性、提示管理、A/B测试和成本分析,无论它们运行在Cloudflare、Replicate还是任何其他提供商上。
欢迎加入团队!
我们非常兴奋地欢迎Replicate团队加入Cloudflare。他们对开发者社区的热情以及他们在AI生态系统中的专业知识是无与伦比的。我们迫不及待地想共同构建AI的未来。