本周AI开发工具:Gemini API批量模式、Amazon SageMaker AI更新等(2025年7月11日)
Gemini API新增批量模式
批量模式允许通过Gemini API提交大型作业。结果在24小时内返回,延迟处理带来成本降低50%和更高速率限制等优势。 Google在博客中写道:“对于数据已准备就绪且不需要立即响应的任何任务,批量模式都是完美工具。”
AWS宣布SageMaker AI新功能
SageMaker HyperPod(支持在数千个加速器上扩展生成式AI模型开发)更新了新CLI和SDK。它还获得了新的可观测性仪表板,显示性能指标、资源利用率和集群健康状况,以及能够在SageMaker HyperPod上部署来自Amazon SageMaker JumpStart的开放权重模型。 SageMaker AI还新增了远程连接功能,允许从本地VS Code实例进行连接。 最后,SageMaker AI现在可以访问完全托管的MLFlow 3.0,为跟踪实验、监控训练进度和深入了解模型行为提供直接体验。
Anthropic提出前沿AI开发透明度框架
Anthropic呼吁创建适用于大型AI开发者的AI透明度框架,以确保问责制和安全性。 Anthropic在帖子中写道:“随着模型进步,我们拥有加速科学发现、医疗保健和经济增长的前所未有机会。没有安全和负责任的开发,一次灾难性失败可能使进展停滞数十年。我们提议的透明度框架提供了实用第一步:在保持私营部门提供AI变革潜力的敏捷性的同时,实现安全实践的公开可见性。” 因此,它提议该框架可在联邦、州或国际层面应用。框架初始版本包括六个核心原则:仅限大型AI开发者、系统卡和文档要求,以及随AI发展而演变的灵活性。
Docker Compose新增构建和运行代理功能
Docker更新了Compose,新增功能使开发者更轻松构建、交付和运行AI代理。 开发者可以在compose.yaml文件中定义开放模型、代理和MCP兼容工具,然后通过单个命令启动代理栈:docker compose up。 Compose与多个代理框架集成,包括LangGraph、Embabel、Vercel AI SDK、Spring AI、CrewAI、Google的ADK和Agno。
Coder重新构想开发环境以更适合AI代理
Coder宣布推出AI云开发环境(CDE),将IDE、动态策略治理和代理编排整合到单一平台。 据Coder称,当前开发基础设施是为人类而非代理构建,代理有不同的成功要求。公司在公告中写道:“代理需要安全环境、细粒度权限、快速启动时间和完整工具链访问——同时保持治理和合规性。” Coder的新CDE通过引入为人类和代理设计的功能来解决此问题。 一些功能包括完全隔离环境(AI代理和开发者协同工作)、双防火墙模型(限定代理访问)以及运行和管理AI代理的界面。
DigitalOcean统一AI产品 under GradientAI
GradientAI是公司所有AI产品的总称,分为三类:基础设施、平台和应用。 GradientAI基础设施包括GPU Droplets、裸机GPU、向量数据库和优化软件等构建块;GradientAI平台包括构建和监控代理的功能,如模型集成、函数调用、RAG、外部数据和内置评估工具;GradientAI应用包括预构建代理。 DigitalOcean在博客中写道:“如果您已使用我们的AI工具构建,无需任何更改。所有现有项目和API将继续按预期工作。变化在于我们如何整合所有内容,具有更清晰的组织、统一文档和反映我们AI平台全部潜力的产品体验。”
最新LF去中心化信任实验室HOPrS识别照片是否被修改
OpenOrigins宣布其人类导向证明系统(HOPrS)已被Linux基金会的去中心化信任接受为新实验室。HOPrS是开源框架,可用于判断图像是否被修改。 它利用感知哈希和四叉树分割等技术,结合区块链技术,确定图像的更改方式。 据OpenOrigins称,HOPrS可用于识别内容是否由AI生成,随着区分AI生成和人类生成内容变得越来越困难,此能力变得越来越重要。 LF去中心化信任执行董事Daniela Barbosa表示:“HOPrS加入LF去中心化信任实验室使我们的社区能够访问和协作关键工具,以在生成式AI时代验证内容。”
Denodo宣布DeepQuery
DeepQuery利用跨多个系统、部门和格式的治理企业数据,提供基于实时信息的答案。目前作为私有预览提供。 公司还宣布对MCP的支持,最新版Denodo AI SDK包括MCP服务器实现。
[阅读上周更新此处。]