<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>视频理解 on 办公AI智能小助手</title>
    <link>https://blog.qife122.com/tags/%E8%A7%86%E9%A2%91%E7%90%86%E8%A7%A3/</link>
    <description>Recent content in 视频理解 on 办公AI智能小助手</description>
    <generator>Hugo</generator>
    <language>zh-cn</language>
    <copyright>qife</copyright>
    <lastBuildDate>Sat, 04 Oct 2025 05:40:04 +0800</lastBuildDate>
    <atom:link href="https://blog.qife122.com/tags/%E8%A7%86%E9%A2%91%E7%90%86%E8%A7%A3/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>长视频理解与生成技术突破</title>
      <link>https://blog.qife122.com/p/%E9%95%BF%E8%A7%86%E9%A2%91%E7%90%86%E8%A7%A3%E4%B8%8E%E7%94%9F%E6%88%90%E6%8A%80%E6%9C%AF%E7%AA%81%E7%A0%B4/</link>
      <pubDate>Sat, 04 Oct 2025 05:40:04 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E9%95%BF%E8%A7%86%E9%A2%91%E7%90%86%E8%A7%A3%E4%B8%8E%E7%94%9F%E6%88%90%E6%8A%80%E6%9C%AF%E7%AA%81%E7%A0%B4/</guid>
      <description>&lt;h2 id=&#34;长视频理解与合成技术突破&#34;&gt;长视频理解与合成技术突破&lt;/h2&gt;&#xA;&lt;p&gt;在今年的计算机视觉与模式识别会议（CVPR）上，某中心展示了四篇论文，体现了我们在前沿问题研究上的广泛性。&lt;/p&gt;&#xA;&lt;h3 id=&#34;基于电影元数据的场景表示学习&#34;&gt;基于电影元数据的场景表示学习&lt;/h3&gt;&#xA;&lt;p&gt;在《Movies2Scenes：使用电影元数据学习场景表示》论文中，我们提出了一种新颖的对比学习方法，仅使用常见的电影元数据来学习通用场景表示。在使用多个基准数据集评估的多样化任务中，使用我们表示的模型始终优于使用现有最先进表示的模型。&lt;/p&gt;</description>
    </item>
    <item>
      <title>运动感知掩码提升视频表征学习</title>
      <link>https://blog.qife122.com/p/%E8%BF%90%E5%8A%A8%E6%84%9F%E7%9F%A5%E6%8E%A9%E7%A0%81%E6%8F%90%E5%8D%87%E8%A7%86%E9%A2%91%E8%A1%A8%E5%BE%81%E5%AD%A6%E4%B9%A0/</link>
      <pubDate>Fri, 19 Sep 2025 23:34:59 +0800</pubDate>
      <guid>https://blog.qife122.com/p/%E8%BF%90%E5%8A%A8%E6%84%9F%E7%9F%A5%E6%8E%A9%E7%A0%81%E6%8F%90%E5%8D%87%E8%A7%86%E9%A2%91%E8%A1%A8%E5%BE%81%E5%AD%A6%E4%B9%A0/</guid>
      <description>&lt;h1 id=&#34;运动感知掩码提升视频表征学习&#34;&gt;运动感知掩码提升视频表征学习&lt;/h1&gt;&#xA;&lt;p&gt;现代基础模型（如大语言模型）通过重建随机掩码的文本或图像实现最先进性能。这些模型无需人工标注，仅通过&amp;quot;填补空白&amp;quot;即可从大规模无标注数据中学习强大表征。&lt;/p&gt;</description>
    </item>
    <item>
      <title>VideoPrism：通用视频理解基础视觉编码器</title>
      <link>https://blog.qife122.com/p/videoprism%E9%80%9A%E7%94%A8%E8%A7%86%E9%A2%91%E7%90%86%E8%A7%A3%E5%9F%BA%E7%A1%80%E8%A7%86%E8%A7%89%E7%BC%96%E7%A0%81%E5%99%A8/</link>
      <pubDate>Sat, 13 Sep 2025 05:36:31 +0800</pubDate>
      <guid>https://blog.qife122.com/p/videoprism%E9%80%9A%E7%94%A8%E8%A7%86%E9%A2%91%E7%90%86%E8%A7%A3%E5%9F%BA%E7%A1%80%E8%A7%86%E8%A7%89%E7%BC%96%E7%A0%81%E5%99%A8/</guid>
      <description>&lt;h1 id=&#34;videoprism通用视频理解基础视觉编码器&#34;&gt;VideoPrism：通用视频理解基础视觉编码器&lt;/h1&gt;&#xA;&lt;p&gt;网络上存在海量视频，涵盖从日常分享到历史时刻和科学观察的多样内容，每个视频都包含对世界的独特记录。合适的工具可以帮助研究人员分析这些视频，从而改变我们对世界的理解方式。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
