<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>无人机追踪 on 办公AI智能小助手</title>
    <link>https://blog.qife122.com/tags/%E6%97%A0%E4%BA%BA%E6%9C%BA%E8%BF%BD%E8%B8%AA/</link>
    <description>Recent content in 无人机追踪 on 办公AI智能小助手</description>
    <generator>Hugo</generator>
    <language>zh-cn</language>
    <copyright>qife</copyright>
    <lastBuildDate>Sat, 20 Sep 2025 02:06:00 +0800</lastBuildDate>
    <atom:link href="https://blog.qife122.com/tags/%E6%97%A0%E4%BA%BA%E6%9C%BA%E8%BF%BD%E8%B8%AA/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>多模态AI突破与硬件适配挑战</title>
      <link>https://blog.qife122.com/p/%E5%A4%9A%E6%A8%A1%E6%80%81ai%E7%AA%81%E7%A0%B4%E4%B8%8E%E7%A1%AC%E4%BB%B6%E9%80%82%E9%85%8D%E6%8C%91%E6%88%98/</link>
      <pubDate>Sat, 20 Sep 2025 02:06:00 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E5%A4%9A%E6%A8%A1%E6%80%81ai%E7%AA%81%E7%A0%B4%E4%B8%8E%E7%A1%AC%E4%BB%B6%E9%80%82%E9%85%8D%E6%8C%91%E6%88%98/</guid>
      <description>&lt;h3 id=&#34;多语言clip实现跨模态理解突破&#34;&gt;多语言CLIP实现跨模态理解突破&lt;/h3&gt;&#xA;&lt;p&gt;研究人员开发出Meta CLIP 2模型，将OpenAI原有CLIP的英语文本-图像映射能力扩展至300多种语言。该技术采用对比语言-图像预训练框架，通过三方面创新实现突破：构建覆盖300+语言的大规模元数据集、设计多语言数据筛选算法、优化训练数据比例与顺序。模型训练使用290亿文本-图像对（原版128亿），通过将全局训练批次大小扩大2.3倍促进跨语言学习。在零样本图像分类任务中表现优于英语单语模型0.8%，在CVQA（57.4%）、Babel-ImageNet（50.2%）等多语言基准测试中刷新记录。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
