亚马逊SageMaker AI新功能:无服务器模型定制加速AI微调

亚马逊SageMaker AI新推出的无服务器模型定制功能,支持对Amazon Nova、DeepSeek等流行AI模型进行微调,将模型定制过程从数月缩短至数日,并提供直观UI与代码两种方式,支持监督微调和强化学习等多种技术。

今天,我很高兴地宣布,亚马逊SageMaker AI针对Amazon Nova、DeepSeek、GPT-OSS、Llama和Qwen等流行AI模型推出了新的无服务器定制功能。这项新的定制能力为强化学习等最新微调技术提供了易于使用的界面,从而可将AI模型定制过程从数月加速到数日。

只需点击几下,您就可以无缝选择模型和定制技术,并处理模型评估和部署——所有操作完全无服务器化,让您可以专注于模型调优,而无需管理基础设施。当您选择无服务器定制时,SageMaker AI会根据模型和数据大小自动选择和配置适当的计算资源。

开始使用无服务器模型定制

您可以在Amazon SageMaker Studio中开始定制模型。在左侧导航窗格中选择"Models",然后查看您想要定制的喜爱的AI模型。

通过UI界面定制

只需点击几下,您就可以定制AI模型。在特定模型(如Meta Llama 3.1 8B Instruct)的"Customize model"下拉列表中,选择"Customize with UI"。

您可以选择一种定制技术,用于使基础模型适应您的用例。SageMaker AI支持监督微调以及最新的模型定制技术,包括直接偏好优化、来自可验证奖励的强化学习以及来自AI反馈的强化学习。每种技术都以不同的方式优化模型,选择时会受到数据集大小和质量、可用计算资源、任务性质、所需精度水平和部署约束等因素的影响。

上传或选择一个训练数据集,以匹配所选定制技术所需的格式。使用所选技术推荐的批量大小、学习率和训练周期数。您可以配置高级设置,例如超参数、新推出的用于实验跟踪的无服务器MLflow应用,以及网络和存储卷加密。选择"Submit"即可开始您的模型训练任务。

训练任务完成后,您可以在"My Models"选项卡中看到您创建的模型。在其中一个模型中选择"View details"。

通过选择"Continue customization",您可以继续通过调整超参数或使用不同技术进行训练来定制您的模型。通过选择"Evaluate",您可以评估您的定制模型,查看其与基础模型相比的表现如何。

当您完成这两个任务后,可以在"Deploy"下拉列表中选择"SageMaker"或"Bedrock"来部署您的模型。

您可以选择Amazon Bedrock进行无服务器推理。选择"Bedrock"和模型名称,将模型部署到Amazon Bedrock中。要找到您部署的模型,请在Bedrock控制台中选择"Imported models"。

如果您希望控制部署资源(如实例类型和实例数量),也可以将模型部署到SageMaker AI推理端点。在SageMaker AI部署状态变为"In service"后,您就可以使用此端点执行推理。在"Playground"选项卡中,您可以通过单次提示或聊天模式测试您的定制模型。

借助无服务器MLflow能力,您可以自动记录所有关键的实验指标,而无需修改代码,并访问丰富的可视化图表进行进一步分析。

通过代码定制

当您选择通过代码定制时,您会看到一个用于微调或部署AI模型的示例笔记本。如果您想编辑示例笔记本,可以在JupyterLab中打开它。或者,您可以通过选择"Deploy"立即部署模型。

您可以通过从Amazon SageMaker Inference或Amazon SageMaker Hyperpod中选择部署资源,来选择Amazon Bedrock或SageMaker AI端点。

当您在页面右下角选择"Deploy"时,系统将重定向回模型详情页面。在SageMaker AI部署状态变为"In service"后,您就可以使用此端点执行推理。

现已推出

亚马逊SageMaker AI中的新型无服务器AI模型定制功能现已在美国东部(弗吉尼亚北部)、美国西部(俄勒冈)、亚太地区(东京)和欧洲(爱尔兰)区域推出。您只需为训练和推理期间处理的令牌付费。要了解更多详细信息,请访问亚马逊SageMaker AI定价页面。

请在Amazon SageMaker Studio中试用,并通过AWS re:Post for SageMaker或您常用的AWS支持渠道发送反馈。

— Channy

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计