<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>算法公平性 on 办公AI智能小助手</title>
    <link>https://blog.qife122.com/tags/%E7%AE%97%E6%B3%95%E5%85%AC%E5%B9%B3%E6%80%A7/</link>
    <description>Recent content in 算法公平性 on 办公AI智能小助手</description>
    <generator>Hugo</generator>
    <language>zh-cn</language>
    <copyright>qife</copyright>
    <lastBuildDate>Sat, 04 Oct 2025 20:32:28 +0800</lastBuildDate>
    <atom:link href="https://blog.qife122.com/tags/%E7%AE%97%E6%B3%95%E5%85%AC%E5%B9%B3%E6%80%A7/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>10位博士生获资助开展可信AI研究</title>
      <link>https://blog.qife122.com/p/10%E4%BD%8D%E5%8D%9A%E5%A3%AB%E7%94%9F%E8%8E%B7%E8%B5%84%E5%8A%A9%E5%BC%80%E5%B1%95%E5%8F%AF%E4%BF%A1ai%E7%A0%94%E7%A9%B6/</link>
      <pubDate>Sat, 04 Oct 2025 20:32:28 +0800</pubDate>
      <guid>https://blog.qife122.com/p/10%E4%BD%8D%E5%8D%9A%E5%A3%AB%E7%94%9F%E8%8E%B7%E8%B5%84%E5%8A%A9%E5%BC%80%E5%B1%95%E5%8F%AF%E4%BF%A1ai%E7%A0%94%E7%A9%B6/</guid>
      <description>&lt;h2 id=&#34;某中心资助10位宾大工程博士生开展可信ai研究&#34;&gt;某中心资助10位宾大工程博士生开展可信AI研究&lt;/h2&gt;&#xA;&lt;p&gt;某中心宣布向宾夕法尼亚大学工程与应用科学学院提供70万美元资助，用于支持公平可信人工智能领域的研究。该笔资金将分配给10位在该领域开展研究的工程专业博士研究生。&lt;/p&gt;</description>
    </item>
    <item>
      <title>可信机器学习在语音助手中的三大突破</title>
      <link>https://blog.qife122.com/p/%E5%8F%AF%E4%BF%A1%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E5%9C%A8%E8%AF%AD%E9%9F%B3%E5%8A%A9%E6%89%8B%E4%B8%AD%E7%9A%84%E4%B8%89%E5%A4%A7%E7%AA%81%E7%A0%B4/</link>
      <pubDate>Sat, 04 Oct 2025 06:04:16 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E5%8F%AF%E4%BF%A1%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E5%9C%A8%E8%AF%AD%E9%9F%B3%E5%8A%A9%E6%89%8B%E4%B8%AD%E7%9A%84%E4%B8%89%E5%A4%A7%E7%AA%81%E7%A0%B4/</guid>
      <description>&lt;h2 id=&#34;可信机器学习在语音助手中的进展&#34;&gt;可信机器学习在语音助手中的进展&lt;/h2&gt;&#xA;&lt;p&gt;团队在隐私保护机器学习、联邦学习和偏见缓解方面的最新研究。&lt;/p&gt;&#xA;&lt;h3 id=&#34;1-隐私保护机器学习&#34;&gt;1. 隐私保护机器学习&lt;/h3&gt;&#xA;&lt;p&gt;差分隐私（DP）的直觉是，访问模型的输出不应提供任何关于训练模型所用输入的线索。DP将这种直觉量化为在给定数据集上训练的模型输出与在移除单个输入后相同数据集上训练的相同模型输出之间的概率差异。&lt;/p&gt;</description>
    </item>
    <item>
      <title>牛津论文如何影响某中心AI公平性软件</title>
      <link>https://blog.qife122.com/p/%E7%89%9B%E6%B4%A5%E8%AE%BA%E6%96%87%E5%A6%82%E4%BD%95%E5%BD%B1%E5%93%8D%E6%9F%90%E4%B8%AD%E5%BF%83ai%E5%85%AC%E5%B9%B3%E6%80%A7%E8%BD%AF%E4%BB%B6/</link>
      <pubDate>Thu, 25 Sep 2025 02:49:48 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E7%89%9B%E6%B4%A5%E8%AE%BA%E6%96%87%E5%A6%82%E4%BD%95%E5%BD%B1%E5%93%8D%E6%9F%90%E4%B8%AD%E5%BF%83ai%E5%85%AC%E5%B9%B3%E6%80%A7%E8%BD%AF%E4%BB%B6/</guid>
      <description>&lt;h2 id=&#34;机器学习模型公平性的技术突破&#34;&gt;机器学习模型公平性的技术突破&lt;/h2&gt;&#xA;&lt;p&gt;SageMaker Clarify工具通过一系列指标评估数据潜在偏见，其中条件人口差异(CDD)指标直接源自牛津互联网研究所(OII)的研究成果。该指标定义为&amp;quot;各子组人口差异的加权平均值，每个子组差异按其包含的观测值数量比例加权&amp;quot;。&lt;/p&gt;</description>
    </item>
    <item>
      <title>实现更公平机器学习的技术路径探索</title>
      <link>https://blog.qife122.com/p/%E5%AE%9E%E7%8E%B0%E6%9B%B4%E5%85%AC%E5%B9%B3%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E7%9A%84%E6%8A%80%E6%9C%AF%E8%B7%AF%E5%BE%84%E6%8E%A2%E7%B4%A2/</link>
      <pubDate>Wed, 24 Sep 2025 23:58:01 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E5%AE%9E%E7%8E%B0%E6%9B%B4%E5%85%AC%E5%B9%B3%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E7%9A%84%E6%8A%80%E6%9C%AF%E8%B7%AF%E5%BE%84%E6%8E%A2%E7%B4%A2/</guid>
      <description>&lt;h1 id=&#34;实现更公平机器学习的技术路径探索&#34;&gt;实现更公平机器学习的技术路径探索&lt;/h1&gt;&#xA;&lt;h2 id=&#34;算法公平性的定义与挑战&#34;&gt;算法公平性的定义与挑战&lt;/h2&gt;&#xA;&lt;p&gt;算法公平性具有多种形式化定义，如人口统计均等、机会均等和几率均等。其核心思想是：机器学习模型在不同人口亚组（如男性和女性）中应具有相同或相似的行为表现。以最常用的人口统计均等为例，要求模型输出特定结果（如贷款审批）的概率不应依赖于性别、种族或年龄等敏感属性。&lt;/p&gt;</description>
    </item>
    <item>
      <title>推荐系统技术前沿与算法公平性探讨</title>
      <link>https://blog.qife122.com/p/%E6%8E%A8%E8%8D%90%E7%B3%BB%E7%BB%9F%E6%8A%80%E6%9C%AF%E5%89%8D%E6%B2%BF%E4%B8%8E%E7%AE%97%E6%B3%95%E5%85%AC%E5%B9%B3%E6%80%A7%E6%8E%A2%E8%AE%A8/</link>
      <pubDate>Wed, 24 Sep 2025 16:09:23 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E6%8E%A8%E8%8D%90%E7%B3%BB%E7%BB%9F%E6%8A%80%E6%9C%AF%E5%89%8D%E6%B2%BF%E4%B8%8E%E7%AE%97%E6%B3%95%E5%85%AC%E5%B9%B3%E6%80%A7%E6%8E%A2%E8%AE%A8/</guid>
      <description>&lt;h1 id=&#34;recsys-2022推荐系统无处不在&#34;&gt;RecSys 2022：“推荐系统无处不在”&lt;/h1&gt;&#xA;&lt;p&gt;自然语言处理技术在推荐系统中的适应性应用与算法公平性成为本届会议的两大核心议题。&lt;/p&gt;&#xA;&lt;p&gt;&lt;strong&gt;会议概况&lt;/strong&gt;&lt;br&gt;&#xA;ACM推荐系统会议（RecSys）作为推荐系统领域的顶级会议本周举行。某中心两位科学家与马里兰大学的Jennifer Golbeck共同担任本次会议的联合主席。他们就会议议程和推荐系统研究现状分享了见解。&lt;/p&gt;</description>
    </item>
    <item>
      <title>人工智能公平性研究项目解析</title>
      <link>https://blog.qife122.com/p/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E5%85%AC%E5%B9%B3%E6%80%A7%E7%A0%94%E7%A9%B6%E9%A1%B9%E7%9B%AE%E8%A7%A3%E6%9E%90/</link>
      <pubDate>Wed, 24 Sep 2025 11:40:42 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E5%85%AC%E5%B9%B3%E6%80%A7%E7%A0%94%E7%A9%B6%E9%A1%B9%E7%9B%AE%E8%A7%A3%E6%9E%90/</guid>
      <description>&lt;h2 id=&#34;人工智能公平性研究项目概述&#34;&gt;人工智能公平性研究项目概述&lt;/h2&gt;&#xA;&lt;p&gt;今年早些时候，美国国家科学基金会（NSF）宣布了首批10个获得资助的研究项目，这些项目源于NSF与某机构共同设立的2000万美元合作计划，旨在支持人工智能公平性研究。据NSF计算机与信息科学与工程部副主任介绍，这些资助项目主要涉及四个研究方向：（1）确保算法及集成算法的系统公平性——这始于公平性的定义和量化；（2）AI算法的问责制与透明度；（3）利用AI促进社会公平；（4）确保AI惠及所有人。他强调未来资助项目可能超越这三个主题，最新征集信息可在项目网站查询。&lt;/p&gt;</description>
    </item>
    <item>
      <title>机器学习公平性与准确性的技术实践</title>
      <link>https://blog.qife122.com/p/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E5%85%AC%E5%B9%B3%E6%80%A7%E4%B8%8E%E5%87%86%E7%A1%AE%E6%80%A7%E7%9A%84%E6%8A%80%E6%9C%AF%E5%AE%9E%E8%B7%B5/</link>
      <pubDate>Wed, 24 Sep 2025 11:34:50 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E5%85%AC%E5%B9%B3%E6%80%A7%E4%B8%8E%E5%87%86%E7%A1%AE%E6%80%A7%E7%9A%84%E6%8A%80%E6%9C%AF%E5%AE%9E%E8%B7%B5/</guid>
      <description>&lt;h2 id=&#34;技术职责与挑战&#34;&gt;技术职责与挑战&lt;/h2&gt;&#xA;&lt;p&gt;某中心应用科学家专注于为机器学习服务建立科学严谨的基准测试方法。其核心职责包括确保机器学习技术输出结果的准确性和公平性，特别是在人脸识别等领域。这项工作需要解决算法训练数据平衡性、多样性以及伦理来源等关键技术挑战。&lt;/p&gt;</description>
    </item>
    <item>
      <title>人工智能公平性研究第三轮资助项目启动</title>
      <link>https://blog.qife122.com/p/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E5%85%AC%E5%B9%B3%E6%80%A7%E7%A0%94%E7%A9%B6%E7%AC%AC%E4%B8%89%E8%BD%AE%E8%B5%84%E5%8A%A9%E9%A1%B9%E7%9B%AE%E5%90%AF%E5%8A%A8/</link>
      <pubDate>Wed, 24 Sep 2025 06:40:34 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E5%85%AC%E5%B9%B3%E6%80%A7%E7%A0%94%E7%A9%B6%E7%AC%AC%E4%B8%89%E8%BD%AE%E8%B5%84%E5%8A%A9%E9%A1%B9%E7%9B%AE%E5%90%AF%E5%8A%A8/</guid>
      <description>&lt;h3 id=&#34;研究背景&#34;&gt;研究背景&lt;/h3&gt;&#xA;&lt;p&gt;在人工智能系统设计中实现公平性是应对全球重大挑战的关键目标。2019年，美国国家科学基金会与某机构宣布合作推进AI公平性研究，双方承诺三年内各投入约1000万美元。截至目前，前两轮资助已支持21个研究项目，涵盖算法公平性保障、AI促进社会公平、人机交互原则等领域。&lt;/p&gt;</description>
    </item>
    <item>
      <title>端到端神经语音识别与公平性技术突破</title>
      <link>https://blog.qife122.com/p/%E7%AB%AF%E5%88%B0%E7%AB%AF%E7%A5%9E%E7%BB%8F%E8%AF%AD%E9%9F%B3%E8%AF%86%E5%88%AB%E4%B8%8E%E5%85%AC%E5%B9%B3%E6%80%A7%E6%8A%80%E6%9C%AF%E7%AA%81%E7%A0%B4/</link>
      <pubDate>Wed, 24 Sep 2025 00:27:40 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E7%AB%AF%E5%88%B0%E7%AB%AF%E7%A5%9E%E7%BB%8F%E8%AF%AD%E9%9F%B3%E8%AF%86%E5%88%AB%E4%B8%8E%E5%85%AC%E5%B9%B3%E6%80%A7%E6%8A%80%E6%9C%AF%E7%AA%81%E7%A0%B4/</guid>
      <description>&lt;h2 id=&#34;端到端神经语音识别&#34;&gt;端到端神经语音识别&lt;/h2&gt;&#xA;&lt;p&gt;传统语音识别系统包含专门处理不同语言知识层面的组件：声学模型（捕捉语音声音与声波对应关系）、发音模型（映射声音到单词）和语言模型（捕捉语法、语义等高级特性）。这些模型分别训练后通过图搜索算法组合，推断最可能的词序列。最新系统在声学和语言模型中使用神经网络，但整合仍依赖非神经方法，故称为“混合”自动语音识别（ASR）系统。&lt;/p&gt;</description>
    </item>
    <item>
      <title>大语言模型在招聘决策中的潜力与风险评估</title>
      <link>https://blog.qife122.com/p/%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E5%9C%A8%E6%8B%9B%E8%81%98%E5%86%B3%E7%AD%96%E4%B8%AD%E7%9A%84%E6%BD%9C%E5%8A%9B%E4%B8%8E%E9%A3%8E%E9%99%A9%E8%AF%84%E4%BC%B0/</link>
      <pubDate>Sat, 20 Sep 2025 11:04:43 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E5%9C%A8%E6%8B%9B%E8%81%98%E5%86%B3%E7%AD%96%E4%B8%AD%E7%9A%84%E6%BD%9C%E5%8A%9B%E4%B8%8E%E9%A3%8E%E9%99%A9%E8%AF%84%E4%BC%B0/</guid>
      <description>&lt;h1 id=&#34;摘要&#34;&gt;摘要&lt;/h1&gt;&#xA;&lt;p&gt;大型语言模型（LLM）在招聘中的应用有望简化候选人筛选流程，但在缺乏足够保障措施的情况下，其准确性和算法偏见问题引发严重关切。本研究对多个先进的基础LLM（包括来自某中心、某机构、某科技公司等机构的模型）与专有领域招聘模型（Match Score）进行基准测试，评估各模型在预测准确性（ROC AUC、精确召回AUC、F1分数）和公平性（跨声明性别、种族及交叉子组的截断分析影响比）方面的表现。&lt;/p&gt;</description>
    </item>
    <item>
      <title>推荐系统技术前沿与公平性探讨</title>
      <link>https://blog.qife122.com/p/%E6%8E%A8%E8%8D%90%E7%B3%BB%E7%BB%9F%E6%8A%80%E6%9C%AF%E5%89%8D%E6%B2%BF%E4%B8%8E%E5%85%AC%E5%B9%B3%E6%80%A7%E6%8E%A2%E8%AE%A8/</link>
      <pubDate>Thu, 18 Sep 2025 10:04:55 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E6%8E%A8%E8%8D%90%E7%B3%BB%E7%BB%9F%E6%8A%80%E6%9C%AF%E5%89%8D%E6%B2%BF%E4%B8%8E%E5%85%AC%E5%B9%B3%E6%80%A7%E6%8E%A2%E8%AE%A8/</guid>
      <description>&lt;h1 id=&#34;recsys-2022推荐系统无处不在&#34;&gt;RecSys 2022：“推荐系统无处不在”&lt;/h1&gt;&#xA;&lt;p&gt;自然语言处理技术在推荐系统中的应用和算法公平性是今年会议的两个核心议题。&lt;/p&gt;&#xA;&lt;h2 id=&#34;会议概况&#34;&gt;会议概况&lt;/h2&gt;&#xA;&lt;p&gt;ACM推荐系统会议（RecSys）是推荐系统领域的顶级会议。某中心的两位科学家——高级应用科学家Max Harper和高级应用科学经理Vanessa Murdock（均隶属于Alexa购物组织）——与马里兰大学的Jennifer Golbeck共同担任本次会议的三大主席。&lt;/p&gt;</description>
    </item>
    <item>
      <title>可信机器学习在语音助手中的三大突破</title>
      <link>https://blog.qife122.com/p/%E5%8F%AF%E4%BF%A1%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E5%9C%A8%E8%AF%AD%E9%9F%B3%E5%8A%A9%E6%89%8B%E4%B8%AD%E7%9A%84%E4%B8%89%E5%A4%A7%E7%AA%81%E7%A0%B4/</link>
      <pubDate>Tue, 09 Sep 2025 09:04:57 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E5%8F%AF%E4%BF%A1%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E5%9C%A8%E8%AF%AD%E9%9F%B3%E5%8A%A9%E6%89%8B%E4%B8%AD%E7%9A%84%E4%B8%89%E5%A4%A7%E7%AA%81%E7%A0%B4/</guid>
      <description>&lt;h2 id=&#34;隐私保护机器学习&#34;&gt;隐私保护机器学习&lt;/h2&gt;&#xA;&lt;p&gt;差分隐私（DP）通过量化模型输出与训练数据之间的关系来提供理论隐私保证。传统DP-SGD机制会导致训练时间增加130倍，为此研发了eDP-SGD机制：&lt;/p&gt;</description>
    </item>
    <item>
      <title>AI公平性研究资助项目解析</title>
      <link>https://blog.qife122.com/p/ai%E5%85%AC%E5%B9%B3%E6%80%A7%E7%A0%94%E7%A9%B6%E8%B5%84%E5%8A%A9%E9%A1%B9%E7%9B%AE%E8%A7%A3%E6%9E%90/</link>
      <pubDate>Mon, 08 Sep 2025 01:01:29 +0800</pubDate>
      <guid>https://blog.qife122.com/p/ai%E5%85%AC%E5%B9%B3%E6%80%A7%E7%A0%94%E7%A9%B6%E8%B5%84%E5%8A%A9%E9%A1%B9%E7%9B%AE%E8%A7%A3%E6%9E%90/</guid>
      <description>&lt;h2 id=&#34;合作背景&#34;&gt;合作背景&lt;/h2&gt;&#xA;&lt;p&gt;2019年，美国国家科学基金会（NSF）与某机构宣布共同推进人工智能公平性研究，双方承诺在三年内各投入高达1000万美元的资助资金。2020年公布了首批10个资助项目，2021年再次选出37名研究人员承担的11个新项目。&lt;/p&gt;</description>
    </item>
    <item>
      <title>AI公平性研究资助项目解析</title>
      <link>https://blog.qife122.com/p/ai%E5%85%AC%E5%B9%B3%E6%80%A7%E7%A0%94%E7%A9%B6%E8%B5%84%E5%8A%A9%E9%A1%B9%E7%9B%AE%E8%A7%A3%E6%9E%90/</link>
      <pubDate>Sun, 07 Sep 2025 14:40:54 +0800</pubDate>
      <guid>https://blog.qife122.com/p/ai%E5%85%AC%E5%B9%B3%E6%80%A7%E7%A0%94%E7%A9%B6%E8%B5%84%E5%8A%A9%E9%A1%B9%E7%9B%AE%E8%A7%A3%E6%9E%90/</guid>
      <description>&lt;h2 id=&#34;项目背景&#34;&gt;项目背景&lt;/h2&gt;&#xA;&lt;p&gt;2019年，美国国家科学基金会（NSF）与某机构宣布合作推进AI公平性研究，双方承诺在三年内各投入1000万美元资助金。2021年，NSF公布了新一批资助名单，37名研究人员获得总计11个项目资助。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
