从Web发展史看AI未来趋势

本文通过对比Web与AI技术的发展轨迹,探讨了提升技术门槛与天花板的关系,分析了LLM如何降低开发门槛,并讨论了自定义模型、开发工具演进以及技术垄断等关键议题,为开发者提供技术演进视角。

从Web发展史看AI未来趋势

技术演进中的门槛与天花板

在评估人工智能影响时,最常见的错误是将提升技术门槛与提升技术天花板混为一谈。提升门槛指降低技术采用难度,比如让本地商店无需开发者帮助即可建立网站,或通过API为待办应用添加AI翻译功能。这使得技术更易被广泛行业采用。

相反,提升天花板意味着对最佳版本进行优化,实现前所未有的高度。例如流媒体服务优化网络媒体播放器以提升毫秒级速度,或酒店预订平台改进推荐算法——即使点击率微小提升也能显著增加收入。

AI领域的大量工作集中于天花板层面,包括新模型的学术研究、开发环境增强、基础组件改进乃至IDE和Python语言本身的优化。正如浏览器和网络标准不断突破Web可能性边界,AI研究持续解锁新潜能。这些进展最终渗透至React、PyTorch或spaCy等框架,并落地于网站构建器或AI API等门槛级产品。

高价值用例始终值得投入

在存在军备竞赛或竞争的领域,“更好即更好”的法则始终适用。数字营销和注意力经济便遵循此规律。只要比竞争对手略有优势,企业就必须持续投入,“足够好”永远不够好。历史上企业曾大力投资Flash技术,尽管效果不佳,但落后被视为更差选择。生成式AI同样如此,“添加聊天机器人”趋势导致消费者产品普遍“Clippy化”。

大语言模型(LLM)提供了另一种降低门槛的方式:开发支持。它们提供越来越好的交互式编程辅助,并擅长引导开发者进入机器学习等新领域。关键不在于将LLM用作系统,而是用LLM构建系统。使用LLM作为通用分类器的入门门槛远低于设计、训练和评估定制监督机器学习方案。但借助LLM建议和编码支持,这一论点需要重新评估。

开发流程重获控制权

互联网早期网站多为静态,但需要更多灵活性使Web 2.0专注于动态交互功能,通过PHP在服务器端渲染或JavaScript在浏览器中增强。WordPress等博客和CMS平台兴起,处理后端复杂性及托管,但这可能导致网站变慢、更难维护,或意味着放弃控制和完全定制体验。

现代网站构建通常使用Hugo等静态站点生成器或Next.js等框架,将操作复杂性移至构建过程而非运行时。站点预先编译而非在服务器上编译,并通过tree shaking等技术优化性能。TypeScript让我们从动态语言的权衡转向编译语言的权衡。虽然有人抱怨Web开发变得复杂,但整体使网络更好、更易访问,并赋予更多控制权。

AI发展的并行轨迹

机器学习和深度学习首次广泛采用时,通常需使用scikit-learn、PyTorch或TensorFlow等库训练自有模型,或使用spaCy等框架提供的现有实现,这需要大量工作和投入。但随着更大语言模型和更好泛化能力的出现,依赖预训练模型成为可能,无需或仅需极少微调。这激发了某机构等API平台的兴起,提供对大模型的便捷访问,简化托管所需的复杂MLOps,以控制权和隐私换取便利。

下一步是回归自定义模型,但采用更强大工具。同样,我们将操作复杂性从运行时移至开发过程,利用迁移学习等技术。例如人在回路蒸馏和使用大型生成模型创建数据,以构建更准确、更小、更快且可内部部署的私有模型。这种使用模式为高价值用例提供所需灵活性,使内部开发AI功能再次可行,正如现代JavaScript工具链为完全定制网站和Web应用自动化构建过程。

实际案例:某机构项目

某机构的一个项目展示了高价值用例:为提供结构化数据馈送并使市场更透明,团队开发了新系统用于提取实时商品交易洞察作为结构化属性。由于信息可能显著影响市场和经济,必须在高安全环境中内部运行。

通过使用Prodigy进行标注时引入LLM,团队实现了10倍数据开发速度提升,每个模型仅需15人时创建专门训练和评估数据。6MB的spaCy管道以约每秒16,000词的速度运行,准确率高达99%。

技术垄断与开源抗衡

大型科技公司为争夺市场主导地位,不仅试图重塑技术( reinvent the wheel),还试图重塑道路( reinvent the road)。某中心不仅拥有最常用搜索引擎,还开发了最流行浏览器Chrome及其引擎Chromium(驱动Edge、Opera、Arc等),以及集成到搜索和其他应用中的Gemini模型和聊天机器人。这些都是非常有用的产品。

AMP(Accelerated Mobile Pages)是另一个此类产品,一个用于更快移动性能的开源框架。某中心惩罚慢速网页以提供更用户友好结果并鼓励网站采用现代技术和网络标准已不是秘密。但批评者指出,通过强制网络采用AMP,某中心施加了过度控制并将发布者进一步锁定在其生态系统中。当然,这一切的汇聚点是广告,为公司带来超过2000亿美元的年收入。

这种既重塑技术又重塑道路的成熟策略已在AI领域展开,符合某机构的“拥抱、扩展、消灭”计划:拥抱通用标准,实现自有扩展并将用户锁定在生态系统中,完全 dismantle 通用标准。

AI产品不仅是模型

关于生成式AI危险性和政府监管必要性的讨论很多,但 discourse 中常缺少一个重要区分:面向人类的系统和面向机器的模型。“AI”通常既指像ChatGPT这样的产品,也指像GPT-4和Gemini这样的底层模型(本身也指某中心的聊天机器人产品)。无论有意无意,这混淆了视听,可能对监管如何处理模型 artifacts 和开源软件产生持久影响。

对于面向人类的系统,最重要的区分是产品而不仅是技术。包括用户界面和用户体验、产品营销方式以及围绕支撑技术的定制实现。我们不完全了解ChatGPT的内部工作原理,但它可能实施了广泛的防护栏和自定义逻辑以提供最佳用户体验。

另一方面,面向机器的模型是基于公开学术研究的可互换组件。其影响可量化:例如速度、准确性、延迟和成本。LLM可以是产品或过程的一部分,甚至可替换为完全不同的方法,而不真正改变产品本身的体验。

对此观点的常见反驳是:数据呢?某机构和某中心不是拥有大量用户数据使其能构建更好技术吗?需再次区分产品和模型。用户数据对产品是巨大优势,但不一定是面向机器任务的基础。如果从最近生成式AI进展中学到一件事,那就是不需要特定数据来获得通用知识。这正是大语言模型的核心。某机构可能主导AI驱动的聊天助手市场,但这不意味着它们将垄断底层可互换模型和软件组件。某种程度上,这种主要由开放研究和开源软件实现的互操作性与垄断相反。

借助新开发工具和在开发时编译更小私有模型的能力,公司现在不再受限于利用规模经济的第三方API提供商。如果你试图构建一个做特定事情的系统,不需要将请求转换为任意语言并调用最擅长理解任意语言的最大模型。开发这些模型的人讲述这种故事,但我们其他人没有义务相信它们。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计