Legit AI安全指挥中心全面追踪SDLC中的AI代码、模型与MCP服务器使用

Legit Security更新其AI安全指挥中心,提供对软件开发全生命周期中AI生成代码、AI模型及MCP服务器使用的可视化监控,实时检测未经授权模型使用与AI相关风险,帮助安全团队掌握AI对组织安全态势的影响。

Legit安全指挥中心追踪AI代码、模型及MCP服务器在SDLC中的使用

Legit Security已更新其AI安全指挥中心。随着氛围编码和AI优先开发重塑软件构建方式,该指挥中心可可视化监控AI生成代码、AI模型及MCP服务器在软件开发生命周期(SDLC)中的使用时间、地点和方式,以及相关的AI风险。

氛围编码和AI代码助手使开发人员能够以显著更快的速度交付代码。但速度带来风险:AI生成的代码通常包含影响整个应用程序的漏洞和问题。此外,工程师可能使用未经批准或声誉较低的AI模型,违反企业政策,由于未知训练数据或缺乏安全防护措施,这会带来重大风险。

Legit的AI安全指挥中心提供AI相关风险和指标的集中视图,使CISO、应用安全团队和产品安全团队能够了解随时间变化的风险,并比较不同应用程序的AI安全态势。

Legit的AI安全指挥中心主要功能包括:

  • 全面可视化AI使用情况:用户可立即查看其工程环境中的AI模型和MCP服务器,以及必须修复的风险区域。平台还突出显示新引入的组件,跟踪最常用模型,并通过每个AI模型声誉的上下文丰富此视图。
  • 检测风险和未经授权的AI模型使用:低声誉AI模型或未经企业政策批准的模型会带来重大风险,尤其是在训练于不安全代码库或缺乏安全防护措施时。Legit的AI安全指挥中心即时显示使用中的模型,即使工程师试图绕过安全流程和政策。
  • 实时可视化AI相关风险:除了AI使用,Legit实时监控AI相关风险,包括风险最高的AI密钥、按策略分类的顶级AI风险,以及AI风险随时间的变化。对于安全团队,这提供了清晰的机制来理解和沟通AI对组织安全态势的影响。
  • 团队和应用级风险指标:尽管AI使用加速,开发人员对这些工具的专长可能有限。Legit的新AI热图便于精确定位引入最多AI安全问题的团队,并比较应用团队间的AI安全状况,从而轻松识别最需要培训或其他支持的领域。

Legit产品副总裁Yoav Stahl表示:“2025年开发人员的编码方式发生了巨大转变。AI工具使应用团队交付更快,但也提高了许多公司的安全风险水平。随着AI在开发的几乎每个领域普及,我们持续听到安全团队缺乏可视化和对风险的扎实理解。我们很高兴看到这次最新发布填补了一个非常重要的应用安全空白。”

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计