AI模型未针对儿童进行安全调优

本文探讨了当前AI模型在安全调优中存在的重大盲区——缺乏对儿童用户的专门保护。作者指出AI系统默认用户为成年人,却忽视了儿童使用者的特殊需求,这可能导致不适宜内容的暴露。文章分析了技术挑战并提出了解决方案。

AI模型未针对儿童进行安全调优

Joseph Thacker

在一次关于AI安全的随意对话中,我突然意识到:我们正在为成年人调优这些模型,但孩子们也在使用它们。

想想看。当我们讨论一个AI模型是否"安全"时,我们考虑的是炸弹、暴力和其他成人话题。但如今大多数AI应用都不会向模型暴露用户的年龄。因此,模型完全不知道用户是十岁、七岁还是五岁。

年轻用户问题

当前的AI安全措施基于一个基本假设:用户是能够处理成人级别信息的理性成年人。模型会愉快地解释:

  • 各种种族灭绝的历史背景
  • 不同类型药物滥用及其影响
  • 成人关系动态,如"有利益关系的朋友"
  • 没有适合年龄框架的复杂道德困境

它为什么不这样做呢?不知何故,训练期间的假设一直是对话是与成年人进行的。

安全调优差距

模型提供商花费了巨大精力让AI系统拒绝帮助明显有害的请求——制造炸弹、非法活动、仇恨言论。但我们完全忽略了一个更微妙的问题:如何使AI响应适合特定用户?

当然,现在许多应用都具有跨聊天搜索和用户记忆功能,但绝大多数用户使用的是免费计划或根本没有登录。因此,模型不知道他们是谁、年龄多大,或者他们的背景知识可能是什么。

当前的方法就像拥有一个所有书籍对所有人都开放的图书馆。没有适合年龄的分区或对发展准备程度的考虑。

访问情况

我们知道孩子们正在使用这些模型。他们询问一切——历史、科学、关系、时事。而他们得到的响应是针对成人理解和情感韧性校准的。

技术挑战

这并不容易解决。年龄验证在网上是出了名的困难,即使我们能够验证年龄,我们如何确定适当的信息边界?文化差异、个人成熟度水平和家长偏好都使这个问题复杂化。

我们基本上是在对儿童的心理发展进行大规模实验,而且我们不知道长期影响会是什么。我们在社交媒体上错过了目标,现在我们在AI上又重蹈覆辙。

基于以上原因(以及许多其他原因),我正在编写一个面向家长的AI安全电子邮件课程。它将包含大量信息,网站上也会有免费资源。

例如,这篇文章的主题大多可以通过良好的系统提示来修复,因此我在网站上放置了一个免费的系统提示,您可以使用它来帮助您的AI理解适合年龄的响应。

结束语

您对适合年龄的AI交互有什么看法?您是否注意到我们在思考AI安全时存在的这个差距?

  • Joseph “rez0” Thacker
comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计