[Probabilistic Factorial Experimental Design for Combinatorial Interventions 🔗](https://arxiv.org/abs/2506.03363)

利用概率实验设计驯服组合爆炸

想象一下,你是一位试图了解细胞工作原理的生物学家。你怀疑敲除特定基因会改变细胞的状态,也许能将癌细胞转化为良性细胞。你有 20 个不同的基因可以作为目标。 ...

2025-06 · 9 分钟 · 4153 字
[Rapid Overfitting of Multi-Pass SGD in Stochastic Convex Optimization 🔗](https://openreview.net/pdf?id=Qq5h78Eshy)

当多即是少:多轮 SGD 的快速过拟合

如果你曾经训练过机器学习模型,那么标准的流程几乎已经形成了肌肉记忆: 设置数据加载器,定义随机梯度下降 (SGD) 优化器,并编写一个循环在数据集上迭代多个 epoch。直觉告诉我们: 模型看数据的次数越多,学习效果就应该越好。 ...

6 分钟 · 2842 字
[Model Steering: Learning with a Reference Model Improves Generalization Bounds and Scaling Laws 🔗](https://arxiv.org/abs/2505.06699)

指引模型走向成功:参考模型与鲁棒优化如何突破扩展定律

简介 在当前的深度学习领域,我们正目睹一场基础模型的军备竞赛。各大公司和研究实验室正在海量数据集上训练庞大的模型,这往往需要消耗绝大多数学术研究人员或小型组织无法企及的计算资源。然而,这场竞赛的一个副产品是出现了像 OpenAI 的 CLIP 或 Meta 的 Llama 这样强大的开放权重模型。 ...

2025-05 · 7 分钟 · 3499 字
[SynEVO: A neuro-inspired spatiotemporal evolutional framework for cross-domain adaptation 🔗](https://arxiv.org/abs/2505.16080)

NeuroAI 如何彻底改变交通预测:深入解析 SynEVO

想象一下试图在纽约市的街道上开车。现在,想象将同样的驾驶知识通过瞬间转移应用到罗马蜿蜒的历史道路上,或者芝加哥错综复杂的多层高速公路上。虽然人类司机起初可能会有些挣扎,但他们最终会适应,因为他们认识到“红灯停”和“高峰期会堵车”是普遍真理,而城市的具体布局则是独特的。 ...

2025-05 · 9 分钟 · 4278 字
[RLEF: Grounding Code LLMs in Execution Feedback with Reinforcement Learning 🔗](https://arxiv.org/abs/2410.02089)

LLM 能学会调试代码吗?深度解析 RLEF

编写代码很少是一个线性的过程。你写一个函数,运行它,看到错误信息,盯着屏幕,然后进行迭代。这个循环——编码、执行、分析反馈并进行迭代——是软件开发的核心。 ...

2024-10 · 8 分钟 · 3650 字
[New Bounds for Sparse Variational Gaussian Processes 🔗](https://arxiv.org/abs/2502.08730)

收紧边界——利用新界限改进稀疏变分高斯过程

高斯过程 (Gaussian Processes, GPs) 是概率建模领域的“瑞士军刀”。它们提供了灵活性、非参数曲线拟合能力,以及最重要的——有原则的不确定性量化。然而,它们有一个众所周知的“阿喀琉斯之踵”: 可扩展性。标准 GP 的计算成本随着数据点数量的三次方 (\(O(N^3)\)) 增长,这使得它们在处理超过几千个数据点的数据集时变得不切实际。 ...

2025-02 · 8 分钟 · 3918 字
[Adapter Naturally Serves as Decoupler for Cross-Domain Few-Shot Semantic Segmentation 🔗](https://arxiv.org/abs/2506.07376)

Adapter 不仅仅是胶水:结构如何在跨域少样本分割中自然实现解耦

引言 想象一下,你训练了一个强大的 AI 模型来分割日常照片中的物体——识别城市场景中的行人、汽车和树木。现在,你想用同一个模型去识别胸部 X 光片中的肿瘤,或卫星图像中的特定地貌。这就是跨域少样本分割 (Cross-Domain Few-Shot Segmentation, CD-FSS) 所面临的挑战。 ...

2025-06 · 8 分钟 · 3563 字
[Scalable Generation of Spatial Transcriptomics from Histology Images via Whole-Slide Flow Matching 🔗](https://arxiv.org/abs/2506.05361)

从静态图像到鲜活图谱:使用 STFlow 预测基因表达

引言 在计算病理学领域,一张图片胜过千言万语——它甚至可能抵得上成千上万个基因表达谱。 几十年来,病理学家一直通过苏木精-伊红 (H&E) 染色切片来诊断疾病。这些图像揭示了组织形态学——即细胞的形状和结构。然而,形态学只是故事的一半。疾病的分子驱动因素,特别是基因表达,是肉眼无法看见的。空间转录组学 (Spatial Transcriptomics, ST) 是一项革命性的技术,它弥补了这一差距,使科学家能够将基因表达映射到组织切片上的特定物理位置。这就好比从仅有视觉特征的卫星地图,进化到了包含人口统计数据的街景视图。 ...

2025-06 · 8 分钟 · 3525 字
[Revisiting Continuity of Image Tokens for Cross-Domain Few-shot Learning 🔗](https://arxiv.org/abs/2506.03110)

为什么“破坏”图像反而能拯救你的 AI:深入解析少样本学习中的 Token 连续性

引言 在计算机视觉领域,Vision Transformer (ViT) 已然成为当前的霸主。通过在 ImageNet 等海量数据集上进行预训练,ViT 学会了识别从金毛寻回犬到跑车等各种事物,准确率惊人。但这里有个问题: 这些模型非常“数据饥渴”。当你尝试将预训练的 ViT 应用于专门的下游任务——比如检测胸部 X 光片中的罕见疾病或分类农作物害虫——而你只有极少量的训练样本时,模型往往会表现挣扎。 ...

2025-06 · 8 分钟 · 3816 字
[Algorithms with Calibrated Machine Learning Predictions 🔗](https://arxiv.org/abs/2502.02861)

信任危机?经过校准的机器学习模型如何彻底改变在线算法

在计算机科学领域,经典算法的严谨确定性与现代机器学习 (ML) 的概率性 (且往往混乱) 本质之间,长期存在着一道鸿沟。 经典的“在线算法”——比如在不知道会去滑几次雪的情况下决定是租滑雪板还是买滑雪板——旨在即使在最坏的情况下也能将成本降至最低。而机器学习则试图根据模式来预测未来。 ...

2025-02 · 7 分钟 · 3377 字
[Direct Discriminative Optimization: Your Likelihood-Based Visual Generative Model is Secretly a GAN Discriminator 🔗](https://arxiv.org/abs/2503.01103)

DDO:如何将你的生成模型变成它自己的判别器

引言 在当前的 AI 图像生成领域,我们见证了基于似然模型的统治地位。无论是扩散模型 (Diffusion Models,如 Stable Diffusion 或 EDM) 还是自回归模型 (Autoregressive Models,如 VAR) ,这些架构已成为稳定性和可扩展性的标准。它们是“AI 艺术”革命背后的引擎。 ...

2025-03 · 7 分钟 · 3148 字
[Local Identifying Causal Relations in the Presence of Latent Variables 🔗](https://openreview.net/pdf?id=O6q2BHK1BL)

解锁因果关系——如何在潜变量存在时从局部发现关联

引言 科学、决策制定以及日常逻辑中最基本的问题之一就是: “是 X 导致了 Y 吗?” 在一个完美的世界里,我们会通过对照实验来回答这个问题。我们会强迫人们吸烟以观察他们是否会患上肺癌,或者在真空中控制利率以观察通货膨胀如何反应。但在现实世界中,我们很少有这样的奢侈条件。我们通常只能通过观测数据 (observational data) ——即在无法控制变量的情况下发生的事件快照——来进行分析。 ...

8 分钟 · 3784 字
[Gridded Transformer Neural Processes for Spatio-Temporal Data 🔗](https://openreview.net/pdf?id=O0oe7hPtbl)

跨越鸿沟:网格化 Transformer 神经过程如何扩展时空建模能力

引言 我们正处于环境数据的黄金时代。从环绕地球的卫星到漂浮在海洋中的传感器,再到点缀在陆地上的气象站,我们正以前所未有的速度收集关于地球的信息。与此同时,科学计算模型正在生成海量数据集,模拟流体动力学和大气变化。 ...

9 分钟 · 4319 字
[Efficiently Vectorized MCMC on Modern Accelerators 🔗](https://arxiv.org/abs/2503.17405)

打破同步壁垒:利用有限状态机加速 MCMC

马尔可夫链蒙特卡洛 (MCMC) 是现代贝叶斯统计的中流砥柱。无论我们要在这个硬件格局剧变的时代建模房价、生物系统还是股票市场,我们都依赖 MCMC 来从复杂的后验分布中进行采样。 ...

2025-03 · 7 分钟 · 3198 字
[Towards Better-than-2 Approximation for Constrained Correlation Clustering 🔗](https://openreview.net/pdf?id=MkCnPNOLMk)

打破壁垒:受限相关聚类的新方法

引言 聚类是数据分析中最直观的任务之一。我们看着一堆数据点——无论是图像、文档还是生物样本——并试图将相似的项目归为一组,同时将不相似的项目分开。但是,当仅凭“相似性”还不够时会发生什么? ...

9 分钟 · 4373 字
[Signed Laplacians for Constrained Graph Clustering 🔗](https://openreview.net/pdf?id=MHaSq1LlTe)

超越标准谱聚类:利用符号拉普拉斯矩阵解决约束问题

引言 聚类是机器学习和数据科学中最普遍的任务之一。无论你是为了营销活动细分客户,在社交网络中识别社区,还是将具有相似表达模式的基因分组,目标总是一样的: 对数据点进行划分,使得相似的项目在同一组,不相似的项目被分开。 ...

7 分钟 · 3052 字
[G-Designer: Architecting Multi-agent Communication Topologies via Graph Neural Networks 🔗](https://arxiv.org/abs/2410.11782)

打造完美团队:G-Designer 如何自动化多智能体协作

想象一下,你正在管理一个专家团队来解决一个复杂的问题——比如设计一个新的软件应用程序。你有一名程序员、一名数学家、一名测试员和一名项目经理。他们应该如何相互交流? ...

2024-10 · 7 分钟 · 3370 字
[When and How Does CLIP Enable Domain and Compositional Generalization? 🔗](https://openreview.net/pdf?id=Lktwi30g63)

超越自然图像:解锁 CLIP 跨域泛化的能力

引言 在基础模型时代,CLIP (Contrastive Language-Image Pre-training,对比语言-图像预训练) 作为一个分水岭时刻脱颖而出。不同于过去那些针对特定类别 (如 ImageNet) 训练且面对稍有不同的事物就会崩溃的图像分类器,CLIP 展示出了理解其在训练中从未明确见过的概念的非凡能力。它可以看一张照片、一幅素描或一幅油画,通常能理解它们描绘的是同一个物体。 ...

8 分钟 · 3534 字
[Causal Attribution Analysis for Continuous Outcomes 🔗](https://openreview.net/pdf?id=Lie2rOCgkh)

超越二元 —— 如何寻找连续性结果的成因

引言: 数据科学的侦探工作 想象一位医生正在治疗一名血压高得危险的患者。这名患者有不良饮食习惯、缺乏运动且患有心脏病。医生需要回答一个具体的回顾性问题: “究竟是这些因素中的哪一个导致了该患者如此高的血压?” ...

9 分钟 · 4207 字
[LipsNet++: Unifying Filter and Controller into a Policy Network 🔗](https://openreview.net/pdf?id=KZo2XhcSg6)

从抖动到平稳航行:LipsNet++ 如何解决强化学习中的动作波动问题

简介 想象一下训练一个机器人端一杯水。在仿真环境中,你的强化学习 (RL) 智能体表现完美,步履轻盈,滴水不漏。但当你将同样的策略部署到物理机器人上时,电机开始抽动,手臂开始颤抖,水洒得到处都是。 ...

7 分钟 · 3018 字