近期技术公告与更新 (2025年11月29日汇总)
想知道谷歌云的最新动态吗?所有最新更新、公告、资源、活动和学习机会都汇总在此。定期查看以获取最新信息。
提示:不确定如何在谷歌云博客上找到您需要的内容?请从这里开始:谷歌云博客 101:完整主题、链接和资源列表。
2025年11月24日 - 11月28日
增强API安全性:Apigee滥用检测的IP允许列表与机器学习增强
为了保护您的应用程序安全,尽可能快地检测和阻断针对API的攻击至关重要。过去几个月,我们对高级API安全中的滥用检测功能进行了一些更改,使其更容易、更快地识别合法攻击并采取行动。了解Apigee新IP允许列表的所有详情。
Apigee AI网关深度探讨(12月11日)
参加今年最后一场Apigee社区技术讲座,深入了解Apigee AI网关。本次会议将提供关于将复杂的MCP协议服务与传统REST后端集成、代理和转换的实用细节。学习保护、监控和获得对MCP后端技术控制以满足企业级治理要求的具体技术。立即注册。
2025年11月10日 - 11月14日
将n8n部署到Cloud Run
只需几个命令,您就可以将n8n部署到Cloud Run并使其启动运行,准备通过AI工作流为您的业务赋能,这些工作流可以管理电子表格、读取和起草电子邮件等。n8n和Cloud Run都是易于使用且功能强大的工具,使开发人员能够利用AI做更多事情。在此了解更多。
GKE节点内存交换进入公共预览
您现在可以配置GKE标准节点上的交换空间,为内存密集型应用程序提供至关重要的缓冲区,防止内存不足(OOM)错误,尤其是在意外使用高峰期间。启用交换可以提高工作负载弹性,减少因内存压力导致的Pod驱逐,并增强整体应用程序稳定性和成本效益。此功能目前处于公共预览阶段。
2025年11月3日 - 11月7日
宣布推出数据工程智能体
数据团队现在可以使用BigQuery的新数据工程智能体(预览版)自动化复杂的SQL管道任务。该智能体简化了开发、维护和故障排除,使工程师能够专注于战略计划。它支持自然语言管道创建、智能修改以及从遗留工具的无缝迁移。立即转变您的数据工程工作流!
从威胁建模到TTX:引入新的设计合作伙伴
概述威胁建模,如何快速执行威胁模型,以及为什么威胁模型场景能成为出色的桌面推演场景——尤其是对于仍在开发中的产品。要获取有关威胁建模或桌面推演的更多信息,请查看《防御者优势》或联系Mandiant网络安全专家以获得专业协助。
应用程序监控现已包含拓扑图
应用程序监控现在为您的App Hub定义应用程序包含了运行时依赖关系的图形表示(即拓扑)。这使您能够快速理解应用程序架构,发现异常的运行时交互,并更快地解决警报标记的问题。运行时依赖关系是从您从App Hub注册的工作负载发送到Cloud Trace的OpenTelemetry跟踪中提取的。请按照此处的提纲注册您的应用程序,解锁应用程序监控及其新推出的拓扑功能的好处。
赋能AI智能体:使用Apigee将企业治理应用于GenAI工作流
随着生成式AI智能体投入生产,您需要对成本、可靠性和安全性进行控制。一个强大的新模式引入了Apigee作为大型语言模型(LLM)调用的统一AI智能体网关。通过Apigee路由智能体流量,可以立即获得企业级治理,包括动态熔断、令牌消耗配额和敏感数据脱敏。Apigee为智能体开发套件(ADK)提供的新包装简化了实现。将您的智能体转变为可管理、安全的AI产品。阅读全文并探索新模式。
2025年10月20日 - 10月24日
Colab Enterprise中的Dataframe可视化
使用可视化单元为您的DataFrame创建自定义、风格化的可视化:无需编码!选择您的字段、图表类型、聚合和配色方案,然后无需离开笔记本即可查看数据的可视化。查看教程,立即开始数据可视化。
2025年10月13日 - 10月17日
在Cloud Run黑客马拉松中构建无服务器AI
准备好几分钟内从想法扩展到全球规模吗?Cloud Run黑客马拉松来了!使用AI Studio构建无服务器AI应用程序,编排智能体,或利用GPU的强大功能。争夺超过50,000美元的奖金!提交时间从2025年10月6日到2025年11月10日。了解更多并注册。
2025年10月6日 - 10月10日
构建多智能体AI系统
多智能体AI系统通过将复杂且动态的过程分割成多个专门的AI智能体协作执行的离散任务,帮助您优化它们。要开始构建安全可靠的多智能体AI系统,请参阅此参考架构指南:在Google Cloud中设计多智能体AI系统。本指南中的示例架构展示了几种智能体模式:顺序模式和循环模式。要全面了解所有可能的智能体设计模式,并获取帮助选择适合您用例的模式,请参阅此设计指南:为您的智能体AI系统选择设计模式。
2025年9月29日 - 10月3日
宣布Koog支持智能体到智能体协议(A2A)
互联AI的未来已经到来。我们很高兴地宣布,Koog现在支持A2A,该协议允许智能体在公司内部和跨云之间直接、安全、无缝地进行通信。对于Kotlin开发人员,这开启了一个强大的、企业级AI的新时代。构建复杂的智能体,使其能够自动发现并与其它服务协作,同时直接从您的工作流中调用Google Cloud最先进的模型(如Gemini)。停止构建桥梁,开始创建真正智能、互联的系统。了解有关使用Koog、A2A和Google Cloud进行构建的更多信息。
2025年9月15日 - 19日
您的AI现已成为本地专家:基于Google Maps的Grounding功能正式发布
我们很高兴地宣布Vertex AI中“基于Google Maps的Grounding”功能正式发布。此功能让开发者能够构建与真实世界、最新信息连接的生成式AI应用程序,利用Google Maps覆盖全球超过2.5亿个地点的数据。了解详情并开始使用,查看我们的演示。
Vertex AI上生产就绪的YOLO模型训练与服务工作流
本指南将引导您完成在Vertex AI上训练自定义YOLO模型的完整自动化工作流程。您将学习如何使用自定义训练作业,将模型打包到自定义预测容器中,并将其注册到Vertex AI模型注册表中,使其易于部署。最重要的是,这种方法设计为直接与Vertex AI托管的现有目标检测数据集配合使用,这意味着您可以重用已用于AutoML模型的相同数据。在开发者论坛上查看详细信息。
2025年9月8日 - 12日
将推理扩展至数十亿用户和AI智能体
探索为AI模型提供行星级服务所需的架构。本文详细介绍了Google Cloud生态系统——从用于智能负载平衡的GKE推理网关,到自定义TPU的强大功能以及vLLM等开源引擎——如何提供一条生产就绪的路径。超越炒作,学习如何为下一波AI浪潮构建。探索技术深度解析。
庆祝将英特尔TDX机密计算引入Google Cloud一周年
我们一直在推出新功能,帮助您保护使用中最敏感的数据。现已正式发布:
- 配备英特尔TDX的机密GKE节点:保护整个Kubernetes集群、节点池和工作负载。
- 配备英特尔TDX的机密空间:构建安全的数据洁净室,以便在敏感信息上进行协作。
- 机密GPU:在GCE和GKE上使用机密的NVIDIA H100 GPU保护尖端AI工作负载。
我们还已将英特尔TDX扩展到更多区域!阅读博客。
2025年8月25日 - 29日
现代制造商的Applied AI
新的原创增长系列,由The Manufacturing Millennial的Jake Hall主持,深入探讨制造业中AI的领先趋势、最佳实践以及公司当前正在做的事情。聆听行业思想领袖(Rick Bullotta, Jonathan Wise, Walker Reynolds, Berardino Baratta)和Google Cloud专家(Praveen Rao, Eric Lam, Dave Nguyen Ph.D., Geoffrey Hirschheim, Jim Anderson)的见解。立即观看模块1和2,我们将在其中探讨AI创新、趋势以及数字制造时代的AI成本和投资回报率。下一个模块将于9月2日星期二开始。立即加入。
与MongoDB兼容的Firestore现已正式发布
开发者现在可以使用熟悉的MongoDB兼容API,在Firestore的无服务器数据库上构建经济高效、可扩展且高度可靠的应用程序。随着与MongoDB兼容的Firestore正式发布,Firestore社区内的60万活跃开发者现在可以使用现有的MongoDB应用程序代码、驱动程序和工具,以及开源MongoDB生态系统,同时享受Firestore的无服务器服务。Firestore提供多区域复制、几乎无限的可扩展性、高达99.999%的SLA、个位数毫秒的读取性能、集成的Google Cloud治理以及按使用量付费的定价等优势。立即注册参加9月9日的网络研讨会,深入了解与MongoDB兼容的Firestore。
2025年8月18日 - 22日
BigQuery中的Earth Engine现已正式发布
将高级地理空间分析直接引入您的BigQuery工作流。利用卫星数据解锁洞察!
2025年8月11日 - 8月15日
新的HPC VM和Slurm-gcp镜像
新的HPC VM镜像(在项目 cloud-hpc-image-public 下)现已可用,该镜像是基于Rocky Linux 8的镜像,包含IntelMPI v2021.16和RDMA驱动程序。与SchedMD合作,新的Slurm镜像(Slurm 25.05)也已发布。这些基于最新的HPC VM镜像,可用于Ubuntu 22.04/24.04加速器镜像(ARM/AMD64)和Debian 12。这些版本允许在GCP上部署Slurm就绪的集群,提供HPC优化和性能测试基础的优势。了解更多。
在Vertex AI中扩展Gemini Embedding模型
继5月正式发布后需求增长,我们最近为Vertex AI最强大的文本嵌入模型 gemini-embedding-001 的客户提高了配额和输入大小限制。
客户现在每个请求最多可以发送250个输入文本(生成250个嵌入向量),而不仅仅是单个文本,为大规模嵌入应用程序带来了更高的吞吐量和更低的往返网络延迟。 我们将此模型的配额限制为大多数用户提高了10倍,允许嵌入应用程序轻松扩展到每分钟数百万个令牌及以上。 立即开始使用Gemini嵌入!
2025年8月4日 - 8月8日
GKE节点内存交换进入私有预览
您现在可以配置GKE标准节点上的交换空间,为内存密集型应用程序提供至关重要的缓冲区,防止内存不足(OOM)错误,尤其是在意外使用高峰期间。启用交换可以提高工作负载弹性,减少因内存压力导致的Pod驱逐,并增强整体应用程序稳定性和成本效益。此功能目前处于私有预览阶段。请联系您的Google Cloud客户团队了解更多信息并请求访问。
解锁峰值性能:GKE拓扑管理器现已正式发布
对于运行AI/ML和HPC等性能敏感型工作负载的客户,GKE拓扑管理器现已正式发布,并准备通过NUMA对齐优化您的性能。通过确保CPU、内存和GPU资源在同一NUMA节点上分配,拓扑管理器最大限度地减少了跨插槽延迟,并为您要求最高的应用程序最大化吞吐量。通过NodeConfig API配置您的对齐策略以实现显著的性能提升。
大规模微调:面向所有工作负载的GKE NodeConfig大规模扩展
GKE大规模扩展了节点自定义功能,增加了近130个新的Sysctl和Kubelet配置。这为您提供了更精细的控制,适用于任何需要节点自定义、满足性能要求或进行应用程序特定调优的工作负载。通过用原生控件替代复杂的DaemonSet,您可以受益于增强的安全性、高灵活性、更快的节点启动时间和更少的运维管理。查看我们的公共文档以了解如何使用这些新的NodeConfig选项。
Compute Engine中管理许可证的新功能
我们宣布Compute Engine中的一项新功能,允许用户轻松更改其VM上的操作系统许可证。用户现在可以追加、移除或替换操作系统许可证,实现在许可证类型之间的无缝转换——例如将Red Hat Enterprise Linux从按需付费(PAYG)转换为自带订阅(BYOS),或从Ubuntu升级到Ubuntu Pro——而无需重新部署实例。此功能使客户能够快速灵活地满足不断变化的许可需求。了解更多,阅读有关在Compute Engine上管理许可证的信息。
GKE十周年黑客马拉松
召唤所有开发者!Google Kubernetes Engine(GKE)即将迎来十周年,我们为此举办了一场黑客马拉松!加入我们,使用Google Kubernetes Engine和Google AI模型构建强大的AI智能体,与微服务应用程序交互。争夺超过50,000美元的奖金,展示在GKE上构建智能体AI的强大功能。提交时间从2025年8月18日到2025年9月22日。了解更多并注册。
2025年7月28日 - 8月1日
C4 VM正式发布:配备本地SSD、裸机及基于英特尔至强6的更大规格
C4扩展规格现已正式发布!此次扩展引入了配备Google下一代Titanium本地SSD的C4规格、C4裸机实例以及新的超大规格,所有这些都由最新的英特尔至强6处理器Granite Rapids提供支持。我们很高兴成为首家将至强6带给客户的领先超大规模云提供商,为通用计算带来高达30%的性能提升,为ML推荐工作负载带来高达60%的性能提升,并且在Titanium本地SSD规格上访问延迟降低高达35%。了解更多!
2025年7月14日 - 18日
DMS SQL Server到PostgreSQL迁移现已正式发布!
通过以下功能加速您的SQL Server现代化进程至Cloud SQL for PostgreSQL或AlloyDB for PostgreSQL:
- 自动数据库架构和代码转换
- Gemini增强的代码转换
- Gemini辅助的PostgreSQL培训和代码改进
- 基于CDC的低停机时间数据迁移
了解更多并立即开始您的迁移之旅!
2025年7月7日 - 11日
通过"The Agent Factory"提升您的AI智能体技能
“The Agent Factory"是一个面向开发者的新视频播客!我们将超越炒作,探索使用Google Cloud构建生产就绪AI智能体的实用设计、构建、部署和管理策略。期待代码片段、架构深度解析以及与开源框架的集成。立即订阅!
2025年6月23日 - 27日
宣布Maxim AI与Google Cloud的Vertex AI建立合作关系以评估智能体应用程序
Maxim AI提供了一个全面的平台,帮助团队以更高的速度和信心构建、评估和观察其AI智能体,涵盖从提示工程到生产监控的整个AI生命周期。这项新的合作伙伴关系将Vertex AI的Gen AI评估服务深度集成到Maxim AI环境中,允许用户利用Gemini为助手响应提供支持,并使用Vertex AI全面的评估器套件对它们进行评估。这提供了诸如帮助性、相关性、安全性和轨迹等指标的访问。该设置允许用户在Maxim上模拟、评估和跟踪复杂的多轮交互,帮助团队通过无缝的开发者体验将可靠的AI产品更快地推向市场。查看Maxim AI的这篇博客以了解更多。
使用Cloud Run Worker Pools规模化运行非请求工作负载(现为公共预览版)
是否在寻找无服务器的易用性和可扩展性,但又不想局限于HTTP请求驱动的工作负载?Cloud Run Worker Pools提供了与Cloud Run Services相同的弹性和高质量的开发者体验,但专为非请求工作负载设计。Worker Pools非常适合基于拉取模型的用例,例如处理来自Pub/Sub或Kafka的消息,以及其他后端处理。查看公共文档以了解如何在服务、作业和Worker Pools之间进行选择。然后通过部署一个示例Worker Pool来尝试一下。
与施罗德及Google Cloud合作构建用于财务分析的多智能体研究助手
财务分析师花费数小时处理不断增长的市场和公司数据量,以提取关键信号、组合不同的数据源并生成公司研究报告。为了最大限度地发挥其作为主动管理者的优势,施罗德希望使其分析师能够从数据收集转向更高价值的战略思考,这对业务可扩展性和客户投资绩效至关重要。为实现这一目标,施罗德和Google Cloud合作,使用Vertex AI Agent Builder构建了一个多智能体研究助手原型。在此处了解更多信息。
2025年6月16日 - 20日
使用Cloud Location Finder简化您的多云策略(现为公共预览版)
随着云环境扩展到传统架构之外,包含多个云,有效管理您的基础设施变得更加复杂。想象一下,您可以毫不费力地访问不同云提供商之间一致且最新的位置信息,从而使您的多云应用程序能够针对性能、安全性和法规遵从性进行设计和优化。今天,我们通过Cloud Location Finder这一新的Google Cloud服务使之成为现实,该服务提供跨Google Cloud、亚马逊云科技(AWS)、Azure和甲骨文云基础设施(OCI)的最新位置数据。现在,您可以充满信心和控制力地在不同云提供商之间战略性地部署工作负载。探索Cloud Location Finder文档和博客以了解更多。
先进的Gemini文本嵌入模型现已在Vertex AI正式发布
我们最近通过Vertex AI GenAI API推出了新的Gemini Embedding文本模型(gemini-embedding-001)。这个突破性的模型利用Gemini的核心语言理解能力,为文本嵌入设定了新的基准。它是首个在英语、多语言文本和代码方面均表现出色的统一模型,其性能优于之前的模型(text-embedding-005, text-multilingual-embedding-002),并在MTEB多语言排行榜(100多项任务)上名列前茅。我们的内部基准测试表明,在包括零售、新闻、金融、医疗保健、法律和代码在内的各个行业垂直领域,性能都有显著提升。详细结果可在我们的技术报告中找到。
备份保管库现已支持磁盘备份和多区域
我们为Google Cloud备份和灾难恢复服务添加了令人兴奋的新功能!您现在可以将持久性磁盘和Hyperdisk备份安全地存储在备份保管库中,保护它们免受网络攻击和意外数据丢失的影响。此外,备份保管库现在可以在多区域存储位置创建,最大化您的数据弹性并支持业务连续性要求的合规性。查看博客以了解更多!
DeepSeek R1现已在Vertex AI上作为完全托管的API提供(预览版)
功能强大的671B参数模型DeepSeek R1现已在Vertex AI上作为完全托管的API以预览版提供,使高级AI能力更易于开发者使用。这种“模型即服务”(MaaS)产品消除了对大量GPU资源和基础设施管理的需求,使开发者能够专注于构建应用程序。Vertex AI上的DeepSeek R1提供了一个简单、可扩展的API,具有透明的“思维链”推理和企业级安全性等功能。目前在预览期间不收取额外费用,可以通过UI、REST API或OpenAI Python API客户端库访问。了解更多。
2025年6月9日 - 13日
BigQuery中的Serverless Spark现已正式发布:统一分析,加速进行
Google Cloud Serverless for Apache Spark现已在BigQuery中正式发布,在BigQuery Studio中提供统一的开发者体验。在相同的数据上并排运行Spark和SQL,由Lightning Engine提供支持,性能提升高达3.6倍,并通过Gemini提高生产力。通过这种深度集成、零运维的解决方案简化您的数据管道并加速洞察。
Cloud Pub/Sub引入Pub/Sub单消息转换(SMTs)
使在Pub/Sub内部轻松执行简单的数据转换成为可能:Pub/Sub的一个首要目标是简化流式架构。我们已经通过导入主题和导出订阅极大地简化了数据移动,这消除了使用额外服务通过Pub/Sub将原始流数据摄入到BigQuery等目的地的需求。Pub/Sub单消息转换(SMTs)旨在成为一套功能,使得在消息实时移动时轻松验证、过滤、丰富和更改单个消息。第一个SMT现已可用:JavaScript用户定义函数(UDFs),它允许您通过JavaScript代码片段在Pub/Sub内直接对消息属性和/或数据执行简单、轻量级的修改。作为首个单消息转换的JavaScript UDFs从今天起对所有用户正式发布。当您在Google Cloud项目中创建主题或订阅时,您会在Google Cloud控制台中找到新的“添加转换”选项。您也可以使用gcloud CLI立即开始使用JavaScript单消息转换。
在Vertex AI上微调Llama 3-8B模型的效率分析
该分析评估了在Vertex AI上使用单个A100 GPU和配备Axolotl的分布式四A100设置微调Llama 3-8B模型的效率。虽然两种方法都实现了相似的模型收敛,但结果突显了分布式训练的强大功能。在单设备上花费1天20小时的过程,在分布式环境中仅用11小时就完成了——这是一个显著的加速。这种速度是在GPU利用率持续较高(94%)的情况下实现的,但代价是更高的系统和GPU内存开销。有关方法论、资源利用指标和性能曲线的详细分析,您可以在此处查看完整工作。
2025年5月26日 - 30日
Cloud Run GPU现已正式发布
Cloud Run的NVIDIA GPU支持现已正式发布,为各种用例提供了一个功能强大的运行时环境,同时也非常经济高效。开发者现在可以通过我们的无服务器运行时Cloud Run按需访问GPU。跟随MidJourney、vivo和Wayfair等客户的脚步。阅读博客。
Datastream现支持MongoDB作为源!
将数据从MongoDB(副本集、分片集群、自托管、AtlasDB)无缝摄入到BigQuery/Cloud Storage。享受可扩展、完全托管的流式数据传输,支持回填和CDC,从而实现实时洞察和数据驱动决策。链接
2025年5月19日 - 5月23日
利用Gemini准确检测场景转换,理解叙事流
Google Cloud的Gemini模型通过准确检测叙事性场景转换,正在彻底改变视频理解,超越了简单的剪切和淡入淡出。这项突破性技术通过同时分析视觉、音频和文本元素来理解视频的整体背景。媒体公司现在可以将被动的视频资产转换为结构化数据,从而实现智能内容发现、战略广告投放和个性化观看体验。结果如何?观众参与度提高高达38%,放弃率降低27%。在Medium博客上阅读更多。了解详情并访问代码仓库。
在I/O大会上宣布:从AI Studio和MCP部署AI应用到Cloud Run
我们正在通过引入新的方式将您的应用部署到Cloud Run,使AI部署更简单、更易访问。
您可以用一键点击将AI Studio中开发的应用程序部署到Cloud Run,包括Gemma 3。 模型上下文协议(MCP)正在成为一个流行的开放协议,标准化了AI智能体如何与其他工具交互。现在,借助Cloud Run MCP服务器,您可以从兼容的AI智能体(如来自Claude或VS Code Copilot)部署应用程序。 阅读博客以了解更多。
2025年5月12日 - 5月16日
Google for Startups加速器:AI For Energy现接受申请!
现接受总部位于欧洲和以色列的初创公司申请,这些公司致力于为公用事业、电网运营商和能源开发商提供解决方案;为专注于需求灵活性的住宅和商业终端客户提供解决方案;以及为工业客户提供解决方案。这个免股权计划提供为期10周的密集指导和技术项目支持,帮助初创公司将AI集成到其核心能源服务或产品中。入选的初创公司将与同行创始人团队合作,并与Google和能源领域的领导者进行交流。课程将提供对AI工具的访问权,并包括技术和基础设施、用户体验和产品、增长、销售、领导力等方面的研讨会。了解更多并在2025年6月30日前申请。
扩展Google Cloud Workstations容器以运行任何基于GUI的程序
您是否在定制Google Cloud Workstations以运行支持配置(IDE)之外的GUI程序时遇到困难?如果是,您并不孤单。在本文中,我们讨论了如何使用基础的Workstations Docker镜像并构建它以运行终端和Google Chrome。
Google Cloud Marketplace简化交易并改善经济性
宣布三项举措,以Google Cloud Marketplace为基础,打造客户和合作伙伴的增长引擎:
- 改善合作伙伴交易经济性,通过转向可变收入分成模式帮助合作伙伴保留更多收益。
- 简化通过渠道合作伙伴购买的承诺消耗。
- 通过Marketplace客户信用计划激励解锁新工作负载。 了解更多。
2025年Google Cloud DORA Awards现已开放提交!
您的团队是否通过DORA原则取得了显著成功?是时候展现自己了。我们很高兴地宣布启动2025年Google Cloud DORA Awards,以表彰在技术交付和运营性能方面的杰出成就。立即提交您的故事!
2025年5月5日 - 5月9日
使用MCP Toolbox for Databases进行AI辅助开发
我们很高兴地宣布MCP Toolbox for Databases的新更新。开发者现在可以从他们首选的IDE(如Cursor、Windsurf、Claude Desktop等)使用Toolbox,并利用我们新的预构建工具(如execute_sql和list_tables)进行Cloud SQL for PostgreSQL、AlloyDB和自管理PostgreSQL的AI辅助开发。开始使用MCP Toolbox for Databases。
2025年4月28日 - 5月2日
渴望构建AI智能体?加入与Google Cloud合作的智能体开发套件黑客马拉松!
使用ADK构建多智能体系统,解决围绕复杂流程、客户参与、内容创作等方面的挑战。争夺超过50,000美元的奖金,展示ADK和Google Cloud在多智能体系统方面的强大功能。提交时间从2025年5月12日到2025年6月23日。了解更多并在此注册。
2025年4月21日 - 4月25日
冰岛的魅力:通过Gemini重温单人冒险之旅
踏上一段穿越冰岛壮丽景观的旅程,如同Gauti的冰岛单人旅行所体验的那样。从雄伟的瀑布到迷人的北极光,Gautami随后利用Google的多模态AI,特别是Veo2,将这些珍贵的记忆向前推进了一步,让静态照片变得生动起来。探索技术如何增强和动态重温旅行体验,将宝贵时刻转化为沉浸式短视频。这种创新方法展示了AI在保存和丰富我们来自Gauti难忘的冰岛旅行记忆方面的力量。阅读更多。
引入ETLC - 生成式AI时代数据处理的上下文优先方法
随着组织采用生成式AI,数据管道往往缺乏所需的动态上下文。本文介绍了ETLC(提取、转换、加载、上下文化),增加了语义、关系、操作、环境和行为上下文。ETLC使动态上下文引擎能够实现上下文感知的RAG、AI副驾驶和智能体系统。它与模型上下文协议(MCP)等标准配合使用,以有效地交付上下文,确保特定于业务的AI输出。阅读全文。
2025年4月14日 - 4月18日
数据库中心的新功能
随着正式发布,数据库中心现在为所有Google Cloud数据库提供增强的性能和运行状况监控,包括Cloud SQL、AlloyDB、Spanner、Bigtable、Memorystore和Firestore。它提供更丰富的指标和可操作的建议,帮助您优化数据库性能和可靠性,并定制您的体验。数据库中心还利用Gemini提供辅助性能故障排除体验。最后,您可以跟踪数据库清单和运行状况问题的每周进展。立即开始使用数据库中心。
2025年4月7日 - 4月11日
Bigtable SQL能力扩展与持续物化视图
本周,在Google Cloud Next大会上,我们宣布扩展Bigtable的SQL功能,并引入了持续物化视图。Bigtable SQL和持续物化视图使用户能够使用熟悉的SQL语法(包括保留Bigtable灵活模式的专门功能——这是实时应用的一个重要方面)构建完全托管的实时应用程序后端。在此博客中阅读更多。
DORA报告走向全球:现提供9种语言版本!
通过DORA报告解锁DevOps洞察的力量,该报告现在提供9种语言版本,包括中文、法语、日语、韩语、葡萄牙语和西班牙语。全球团队现在可以优化他们的实践,对性能进行基准测试,并获得本地化的洞察以加速软件交付。该报告强调了AI对软件开发的重大影响,探讨了平台工程的承诺和挑战,并强调以用户为中心和稳定的优先级对于组织成功的重要性。立即下载DORA报告。
新的Google Cloud AI基础设施状况报告发布
您的基础设施是否为AI做好准备?2025年AI基础设施状况报告已经发布,其中包含了来自500多位全球技术领导者的见解。探索塑造AI未来的战略和挑战,并学习如何构建一个健壮、安全且经济高效的AI就绪云。立即下载报告,增强您的AI投资。
Google Cloud和Oracle通过新区域和扩展能力加速企业现代化
宣布Oracle Database@Google Cloud的重大增强!我们推出了灵活的Oracle基础数据库服务和强大的新型Exadata X11M机器。我们正在快速扩展到20个全球位置,增加新的合作伙伴跨云互联选项,并为自治数据库引入跨区域灾难恢复。受益于增强的Google Cloud Monitoring、集成的备份和灾难恢复,以及对SAP等企业应用程序的扩展支持。客户可以以更强大的功能、弹性和无缝的Google Cloud集成运行关键的Oracle工作负载。立即从您的Google Cloud控制台开始使用或在此了解更多。
2025年3月17日 - 3月21日
云CISO观点:实现安全AI成功的5个技巧
为了配合Security Command Center中新的AI保护功能,我们提供5个技巧来帮助您的组织为安全的AI成功做好准备。
加强安全与业务联系的4-6-3规则
快速转变业务的愿望可能会促使领导者忽视安全性和弹性,但优先考虑安全性可以解锁价值。遵循这4项原则、6个步骤和3个指标,使用安全优先的思维模式来推动业务成果。
Compute Engine中新的数据保护选项卡确保您的资源受到保护
我们不仅将您的备份选项放在一起,还为通过Cloud Console创建的任何Compute Engine实例引入了智能默认数据保护。以下是其工作原理。
DORA报告 - 生成式AI在软件开发中的影响
本报告建立在并扩展了DORA对AI的研究之上。我们回顾了AI采用的当前格局,研究了其对开发者和组织的影响,并概述了成功集成、度量和持续改进的框架和实用指南。下载报告!
2025年3月10日 - 3月14日
保护您的API免受OWASP十大安全威胁
我们将OWASP的十大API安全威胁列表与Apigee的安全功能进行了比较。以下是我们如何应对。
Project Shield使注册、设置、自动化DDoS防护变得更加容易
现在,易受攻击的组织申请Project Shield、设置保护和自动化防御比以往任何时候