Paper List
-
Evolutionarily Stable Stackelberg Equilibrium
通过要求追随者策略对突变入侵具有鲁棒性,弥合了斯塔克尔伯格领导力模型与演化稳定性之间的鸿沟。
-
Recovering Sparse Neural Connectivity from Partial Measurements: A Covariance-Based Approach with Granger-Causality Refinement
通过跨多个实验会话累积协方差统计,实现从部分记录到完整神经连接性的重建。
-
Atomic Trajectory Modeling with State Space Models for Biomolecular Dynamics
ATMOS通过提供一个基于SSM的高效框架,用于生物分子的原子级轨迹生成,弥合了计算昂贵的MD模拟与时间受限的深度生成模型之间的差距。
-
Slow evolution towards generalism in a model of variable dietary range
通过证明是种群统计噪声(而非确定性动力学)驱动了模式形成和泛化食性的演化,解决了间接竞争下物种形成的悖论。
-
Grounded Multimodal Retrieval-Augmented Drafting of Radiology Impressions Using Case-Based Similarity Search
通过将印象草稿基于检索到的历史病例,并采用明确引用和基于置信度的拒绝机制,解决放射学报告生成中的幻觉问题。
-
Unified Policy–Value Decomposition for Rapid Adaptation
通过双线性分解在策略和价值函数之间共享低维目标嵌入,实现对新颖任务的零样本适应。
-
Mathematical Modeling of Cancer–Bacterial Therapy: Analysis and Numerical Simulation via Physics-Informed Neural Networks
提供了一个严格的、无网格的PINN框架,用于模拟和分析细菌癌症疗法中复杂的、空间异质的相互作用。
-
Sample-Efficient Adaptation of Drug-Response Models to Patient Tumors under Strong Biological Domain Shift
通过从无标记分子谱中学习可迁移表征,利用最少的临床数据实现患者药物反应的有效预测。
通过虚拟鱼强化学习控制鱼群
Faculty of Engineering, Kyoto University | Graduate School of Information Science, University of Hyogo
30秒速读
IN SHORT: 证明了无模型强化学习可以利用虚拟视觉刺激有效引导鱼群,克服了缺乏精确行为模型的问题。
核心创新
- Methodology First application of model-free Q-learning to control collective animal behavior via virtual agents, bypassing the need for complex fish school models.
- Methodology Introduces a practical camera-display interaction system with coordinate mapping, enabling real-time state observation and virtual stimulus presentation.
- Biology Leverages fundamental biological reactions (attraction, alignment, optomotor response) for control, validated with Rummy-nose tetra (Hemigrammus bleheri).
主要结论
- 模拟结果证实,即使鱼有50%的概率忽略虚拟刺激,强化学习也能学习到有效的策略(奖励接近+1),证明了其对间歇性反应的鲁棒性。
- 现实世界实验表明,学习到的策略显著优于无刺激基线(p < 0.01)和启发式“停留在边缘”策略,成功将鱼群质心引导至目标边缘。
- 该研究成功将模拟训练的Q函数迁移到真实环境,减少了所需学习时间,并验证了强化学习方法的可迁移性。
摘要: 本研究探索了一种利用强化学习训练的虚拟鱼来引导和控制鱼群的方法。我们使用屏幕上显示的2D虚拟鱼来克服物理机器人代理固有的耐久性和运动限制等技术挑战。为了解决缺乏真实鱼详细行为模型的问题,我们采用了无模型强化学习方法。首先,模拟结果表明,即使模拟的真实鱼经常忽略虚拟刺激,强化学习也能获得有效的运动策略。其次,活鱼的现实世界实验证实,学习到的策略成功地将鱼群引导至指定的目标方向。统计分析表明,所提出的方法显著优于基线条件,包括无刺激和启发式“停留在边缘”策略。这项研究为如何通过人工代理利用强化学习影响集体动物行为提供了早期示范。