eLife|科研团队提出新型高精度动物行为学姿态估计工具
动物行为的精细化追踪与分析对于神经科学、行为学和生物医学领域至关重要。然而,当前主流的深度学习姿态估计方法在面对多动物交互和长时程追踪场景时,往往受到关键点漂移问题的困扰,影响行为量化的准确性与数据的稳定性。
近日,中国科学院深圳先进技术研究院(简称“深圳先进院”)脑认知与脑疾病研究所/深港脑科学创新研究院蔚鹏飞研究员团队在国际学术期刊eLife发表了题为“Anti-drift pose tracker (ADPT):A transformer-based network for robust animal pose estimation across species”的研究论文。研究团队提出了一种基于Transformer架构的抗漂移姿态追踪技术(ADPT),成功实现跨物种动物姿态追踪的高精度、高鲁棒性检测。
ADPT融合了卷积神经网络(CNN)与Transformer结构的优势,一方面利用CNN提取图像的局部精细特征,另一方面通过Transformer有效捕捉身体各部位之间的全局依赖关系,显著降低了关键点的漂移现象(图1)。与DeepLabCut、SLEAP等现有方法的对比测试显示,ADPT在复杂的多动物交互和长时程行为追踪任务中具有明显的精度与稳定性优势。
研究团队对多物种(包括小鼠、食蟹猴等)的行为视频数据集进行了深入评估。在小鼠数据集中,ADPT有效解决了传统方法难以准确检测的尾尖等细微部位追踪问题,总体检测精度较DeepLabCut与SLEAP方法提高超过8.6%,平均均方根误差(RMSE)降至7.19 ± 0.58像素,表现出显著优势(图2左)。在食蟹猴行为数据集中,ADPT在复杂环境干扰下依旧成功实现灵长类动物的姿态稳定追踪。特别是在存在人类干扰的场景中,其他方法容易误将人类识别为目标动物,而ADPT表现出对跨物种干扰的优秀抵抗能力,确保了追踪精度与可靠性(图2右)。
同时,研究团队还利用公开的果蝇(Single fly)、猕猴(OMS_dataset)和狨猴(Marmoset)数据集进一步验证了ADPT的泛化性能,结果再次证实了ADPT跨物种姿态估计的适应能力。
在多动物自由社交行为的场景中,ADPT更展现了其“身份-姿态”同步精准追踪的突出优势。团队发现,ADPT在不进行任何时序后处理的情况下,即可达到90.36%的身份追踪准确率;若结合简单时序校正,这一准确率进一步提高至99.72%,明显优于现有的多动物姿态追踪工具。此外,在团队自建的Homecage小鼠社交数据集中,ADPT不仅身份追踪效果显著优于DeepLabCut和SLEAP(准确率提高约5-10倍,身份互换现象显著减少),姿态估计精度也提高了约15%(图3)。
为进一步推动ADPT技术的应用落地,研究团队开发了简单易用的ADPT工具箱,能够让缺乏深度学习背景的生物学研究人员轻松使用,极大地降低了姿态追踪技术的应用门槛。
本研究为动物行为学、神经疾病与社会互动机制研究提供了强大的技术支持,有望推动神经科学与行为学的交叉研究进入新的阶段。
深圳先进院蔚鹏飞研究员为本文最后通讯作者,南方科技大学刘泉影助理教授为共同通讯作者,深圳先进院脑所研究助理唐国令、博士生韩亚宁为本文共同第一作者。该研究还得到了暨南大学李晓江教授、闫森教授团队的大力支持。该项目主要受到国家自然科学基金-青年科学基金项目(B类)、国家自然科学基金外国学者研究基金项目、科技部“脑科学与类脑研究”国家科技重大专项以及深圳市科技创新计划等项目资助。
图1 ADPT工作流程和网络结构图
图2 ADPT实现高精度、高鲁棒性单动物姿态估计
图3 ADPT实现多动物社交场景下精确身份-姿态同步追踪