在纽约生成式AI峰会上,来自某电商平台、某律所和某数据平台的专家齐聚一堂,探讨AI领域最紧迫的问题:如何平衡自动化能力与人类判断的必要性?从大规模客户服务增强到法律工作流复杂性管理,再到人类数据管道优化,专家们分享了负责任部署AI的实际见解。
从支持到基础设施:生成式AI的演进
生成式AI正以惊人速度重塑行业。某电商平台的算法负责人分享了他们的生成式AI如何从实用的客户支持工具发展为基础设施转型。早期实验从客服辅助开始,包括问题历史总结和实时支持。随后转向技术转型领域,从传统SQL存储过程转向动态系统探索,约60-70%的使用场景被证明可行。最具变革性的应用是核心业务中的目录 enrichment,生成式AI正在加速产品数据的组织和呈现。
全国最大律所内的AI构建
在某大型律所,软件工程团队正在开发AI工具。工程主管强调,重点不是取代律师,而是赋能他们:“我们构建的工具旨在让律师工作更轻松,帮助他们做得更多更好。“在非技术文化中引入新技术面临挑战,但通过将AI集成到现有Salesforce基础设施中,团队取得了可衡量的成功。
人类数据在AI中的演变:从数量到精度
某数据平台产品副总裁指出,行业焦点已从大规模训练数据转向精准、专家策划的数据集。这些数据集支撑合成数据生成器和预言机求解器等复杂人机协作系统,成为下一代模型训练和评估的关键。同时,关于对齐、信任和安全的基础关切日益凸显。
AI中的人类监督:平淡集成的力量
随着大语言模型能力增强,人类监督问题变得更加复杂。解决方案不是花哨的工具,而是简单性。某律所采用"广播三明治"方法,将酷炫的AI功能伪装成人们熟悉的平淡工作流。所有律师工作流都基于Salesforce,因此将AI输出直接接入该平台是实现有意义采用的唯一途径。
智能协同:人类与AI如何学会协作
协同不是构建未来自主性,而是定义角色和设计实用工作流。关键不是将系统视为黑盒,而是培养人类通过纠正、情境化和再训练来改进AI的循环。人类的工作是持续进化这些机器,它们不会自行改进。系统需要具备暂停和升级能力,尤其在遇到新颖或模糊情况时。
确定性在AI协同中的重要性
与追求自主AI决策的兴奋相反,某律所明确表示对智能体技术不感兴趣。智能体技术创建了太多步骤和潜在故障点。相反,他们倡导基于确定性的协同模型,其中工作流范围严格、可预测且易于清晰逻辑管理。确定性协同意味着可追溯、可测试和可靠的系统行为。
人类极限与AI基准
人类并不总是可解释的,我们经常不知道为何知道某事。在LLM背景下,这暴露了关键挑战:我们能否确信模型在做我们期望的事?当前行业处于排行榜驱动时刻,但需要质疑谁在定义和评分这些基准,谁在 grounding"冗余度"或"对齐"等概念的定义。
AI基准与人类判断的移动靶标
对齐不是静态的,总是在演变。最重要的因素是认识人类输入应嵌入过程的何处和如何嵌入。细微判断是关键领域,人类仍然不可或缺。LLM就像快照,反映冻结的时间点。人类带来模型根本无法提供的实时背景。
AI中人类表征的未解挑战
人类彼此不一致。数据来源越多样化,地面实况的分歧就越大。目前大多数人类在环管道依赖技术先进地区的贡献者,造成AI系统学习和强化的视角偏差。LLM本质上是"随机鹦鹉”,通过模仿人类语言学习。如果人类有偏见,模型也会有偏见。
人类会始终在环吗?
在某些用例中,自主AI系统已显示真正潜力,如研究和代码生成。但超出这些狭窄领域,完全自主仍会引发危险信号。即使AI技术能处理某事,我们仍然需要人类在环,不是因为我们能做得更好,而是因为我们需要问责制。当出现问题时,需要有人承担责任。
最终思考:AI驱动未来的问责与技能丧失
当我们讨论AI性能时,经常将模型的入门级输出与人类的峰值性能进行比较。这是有缺陷的基线。更深层的担忧是萎缩风险:人类将在建立通过自动化良好执行这些任务的保障措施之前失去基础技能。领导者需要将人类技能保存和问责机制作为负责任AI采用的一部分来设计。
我们需要确保即使扩展机器能力,也能保留关键人类能力的系统。