定义开放混合云与AI未来的九篇战略文章

本文汇总了红帽在2025年第四季度发布的九篇核心战略文章,涵盖Ansible Automation Platform 2.6、Red Hat AI 3、与NVIDIA的战略合作、AI基础设施治理(llm-d)、开源法律问题以及VMware迁移工具包等技术内容,为企业构建面向未来的开放混合云和AI平台提供蓝图。

9 strategic articles defining the open hybrid cloud and AI future

在这份十月的综述中,我们聚焦于成功所需的核心技术蓝图和政策基础。这些文章,从关键平台更新和安全集成到开源的未来法律问题,代表了第四季度的核心战略阅读材料。我们重点介绍了红帽Ansible Automation Platform 2.6如何简化运营,红帽AI 3及其智能控制平面如何变革GPU基础设施,以及我们与NVIDIA的战略合作伙伴关系如何简化AI软件栈。这个季度是为未来十年做规划的时机。

What’s new in Red Hat Ansible Automation Platform 2.6

Ansible Automation Platform 2.6现已全面上市,提供了旨在帮助团队为IT运营构建弹性、可信基础的新功能和平台增强。本次发布的亮点是三个推进关键成果的新功能:用于通过度量和报告释放价值的自动化仪表板;用于通过生成式AI更高效运营的红帽Ansible Lightspeed智能助手;以及用于在企业内实现新规模水平的自助式自动化门户。此版本引入了简化的体验、显著的架构改进,以及更便捷地访问参考架构。同样重要的是,Ansible Automation Platform 2.6是最后一个支持基于RPM安装的版本,未来版本将完全转向容器化安装。

Red Hat AI 3 delivers speed, accelerated delivery, and scale

将于十一月全面上市的红帽AI 3,在整个AI产品组合中提供了生产就绪的能力,以实现更高的企业效率和规模。该版本专注于通过支持SLA的推理能力,为生成式AI应用提供速度和可预测的规模。关键功能包括全面上市的llm-d,用于可靠地扩展大型语言模型,以及支持新兴的模型上下文协议和Llama Stack API,以加速代理式AI开发。该平台还提供了一个可扩展的工具包用于模型定制、增强的检索增强生成能力,以及智能GPU即服务功能,用于最大化混合云中的硬件效率。

Red Hat to distribute NVIDIA CUDA across Red Hat AI, RHEL, and OpenShift

红帽已与NVIDIA正式达成一项重大合作,将直接在其产品组合中分发NVIDIA CUDA工具包,包括红帽企业Linux、红帽OpenShift和红帽AI。这项协议直接解决了企业AI采用的一个重大障碍——操作复杂性,允许开发者和IT团队从单一可信来源访问GPU加速计算的基本工具。其目标是为AI工作负载提供一个简化的、持续支持的环境,无论部署在何处——本地、公有云还是边缘。这种新层次的集成简化了开发者体验,提供了操作一致性,并为未来与NVIDIA硬件和软件的创新奠定了基础。

What to know before you install or upgrade to Red Hat Ansible Automation Platform 2.6

本指南提供了部署或升级到Ansible Automation Platform 2.6的关键信息,重点关注推荐和弃用的安装方法。对于新安装,推荐路径是在RHEL上进行容器化安装,以及在红帽OpenShift容器平台上进行基于Operator的安装。基于RPM的安装现已弃用,从即将发布的2.7版本开始将不再可用,这使得基于容器的方法成为未来标准。现有用户可以直接从Ansible Automation Platform 2.4和2.5升级,但当前使用RHEL 8或RPM安装的用户必须在升级前计划迁移到支持的RHEL版本或容器类型。PostgreSQL数据库版本必须是15、16或17,这是成功升级的严格要求。

Announcing Fedora 43

Fedora项目宣布了Fedora Linux 43的全面上市,为其免费开源操作系统带来了重大更新。此版本通过RPM 6.0增强了安全关注,该版本现在支持OpenPGP v6密钥和多重软件包签名。发行版的关键更改包括对Anaconda安装程序的更新以及默认使用Anaconda WebUI进行Fedora Spins的安装。Fedora Workstation 43以GNOME 49为特色,现在完全采用Wayland,为即将在GNOME 50中移除X11支持做准备。此外,Fedora CoreOS现在可以使用来自Fedora bootc镜像的Containerfile进行构建,简化了使用Podman的构建过程,并且Kinoite引入了通过Plasma Discover进行的无人值守后台更新。

这篇文章探讨了开源社区内关于在软件开发中使用AI工具的主要法律和准法律问题。红帽倡导一种负责任和透明的方法,以确保AI的使用与开源价值观相协调,反映了一种“默认开放”的理念。核心社区问题包括:归属——建议标记重大的AI辅助贡献以保持信任和法律清晰度;许可手续的清晰化——现有的许可授予适用于人类创作的内容,因为AI生成的材料通常不受版权保护;以及AI模型是“剽窃机器”的担忧——这是一个可管理的风险,经验表明这不是系统性问题,可以通过披露和人工监督来缓解。最后,作者肯定开发者来源证书仍然是维护信任和法律清晰度的实用工具,即使在有AI辅助贡献的情况下,只要应用了人的责任和尽职调查。

From tokens to caches: How llm-d improves LLM observability in Red Hat OpenShift AI 3.0

随着企业扩展LLM规模,传统度量标准已不足够;可靠性现在由诸如首令牌时间、每输出令牌时间和缓存效率等因素定义。本文探讨了llm-d(一个开源、Kubernetes原生项目,已集成到红帽OpenShift AI 3.0中)如何解决这一可观测性差距。llm_d将推理分解为可组合的服务(如用于缓存感知路由的端点选择器),并通过Prometheus和OpenTelemetry暴露LLM特定的指标——包括缓存命中率和令牌级延迟。这种深度可见性使站点可靠性工程师和平台操作员能够超越猜测,快速诊断性能瓶颈(路由、缓存或GPU饱和),并自信地在生产规模上满足苛刻的AI服务水平目标。

Beyond the model: Why intelligent infrastructure is the next AI frontier

扩展LLM的关键挑战在于从单服务器上的概念验证跨越到生产级分布式推理,而传统基础设施无法高效处理。本文认为解决方案是智能的、AI感知的基础设施——一种专门设计的控制平面,用于管理AI工作负载不可预测且资源密集的特性。由红帽和IBM Research共同发起的开源llm-d项目(合作伙伴包括Google和NVIDIA)正在开发这个控制平面。llm_d通过引入诸如语义路由和计算卸载等特性来增强Kubernetes,以最大化吞吐量,满足服务水平目标,并确保在开放混合云中高效利用异构硬件。

Red Hat OpenStack VMware Migration toolkit deep-dive

红帽OpenStack VMware迁移工具包提供了一个Ansible集合,旨在简化和自动化将VMware虚拟机工作负载迁移到运行在OpenShift上的红帽OpenStack服务。该工具包通过提供诸如发现模式、网络映射和温VM迁移支持等功能,可以显著降低迁移的复杂性和停机时间。一个关键的技术优势是它使用了OpenStack API和变更块跟踪,从而允许高效地增量同步仅修改的数据块,最大限度地减少服务中断。整个迁移通过Ansible Playbook完全自动化,利用了Ansible Automation Platform的可扩展性,并在目标环境中使用转换主机来优化直接从vCenter进行的数据传输。

What’s next?

上述内容集合证明,前进的道路不由单一供应商解决方案或封闭花园决定,而是由知情的选择和开放的协作决定。无论您是在计划使用OpenStack工具包进行大规模的虚拟化迁移,在社区项目中辩论AI代码生成的道德问题,还是仅仅将您的自动化平台升级到2.6版本,每一个决策都在巩固您未来的架构。红帽仍然致力于提供从Linux内核向上到AI控制平面的灵活、透明的基础,使您能够集成业界最佳的硬件和开源创新。我们鼓励您将这些见解作为指南,确保您采取的每一个现代化步骤都能构建一个随时随地准备好应对任何工作负载的平台。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计