When SAM2 Meets Video Camouflaged Object Segmentation: A Comprehensive Evaluation and Adaptation
➡️ 论文标题:When SAM2 Meets Video Camouflaged Object Segmentation: A Comprehensive Evaluation and Adaptation
➡️ 论文作者:Yuli Zhou, Guolei Sun, Yawei Li, Luca Benini, Ender Konukoglu
➡️ 研究机构: ETH Zürich、University of Zürich、Integrated System Laboratory (ETH Zürich)、University of Bologna
➡️ 问题背景:视频伪装对象分割(VCOS)是一项具有挑战性的任务,涉及在视频中检测与背景高度相似的伪装对象。传统的分割模型在处理伪装对象时表现不佳,而最近的模型如SINet、SLT-Net和ZoomNeXt等虽然有所改进,但在动态伪装场景中的表现仍有待提高。Segment Anything Model 2 (SAM2) 作为一种先进的视频基础模型,已经在多种任务中展现出潜力,但其在动态伪装场景中的有效性尚未得到充分探索。
➡️ 研究动机:为了评估SAM2在视频伪装对象分割任务中的性能,并探索其在该领域的潜力,研究团队进行了全面的评估和适应性研究。研究旨在通过不同的提示策略和模型调整,提高SAM2在伪装对象分割中的准确性和鲁棒性。
➡️ 方法简介:研究团队通过三个主要部分对SAM2进行了评估和改进:
- 零样本能力评估:在伪装视频数据集上评估SAM2的自动和半监督模式下的性能,使用点击、框和掩码等不同提示。
- 与现有模型的结合:探索SAM2与多模态大语言模型(MLLMs)和现有VCOS方法的结合,通过提示驱动的细化提高分割准确性。
- 特定任务的微调:在MoCA-Mask数据集上对SAM2进行微调,以适应伪装对象分割任务,提高其在特定场景中的性能。
➡️ 实验设计:实验在两个视频伪装对象检测数据集(MoCA-Mask和CAD)上进行,使用了多种评估指标(如S-measure、F-measure、MAE等)。实验设计了不同的提示策略(点击、框和掩码)和提示时间(视频的起始、中间和结束帧),以全面评估SAM2在不同条件下的表现。此外,还通过微调SAM2的参数,进一步提高了其在伪装对象分割任务中的性能。
Enhancing Explainability in Multimodal Large Language Models Using Ontological Context
➡️ 论文标题:Enhancing Explainability in Multimodal Large Language Models Using Ontological Context
➡️ 论文作者:Jihen Amara, Birgitta König-Ries, Sheeba Samuel
➡️ 研究机构: Friedrich Schiller University Jena、Michael Stifel Center Jena、Chemnitz University of Technology
➡️ 问题背景:多模态大语言模型(Multimodal Large Language Models, MLLMs)在多种任务中展现了卓越的能力,尤其是在图像和文本的集成任务中,如图像描述和视觉问答。然而,这些模型在特定领域应用中仍面临挑战,尤其是在准确描述和解释特定视觉概念和类别方面,特别是在农业或医疗等特定领域。
➡️ 研究动机:现有的MLLMs在特定领域的知识应用方面仍存在不足,尤其是在处理领域特定任务时。研究团队提出了一种新的框架,通过将本体知识与MLLMs结合,以提高模型在特定领域任务中的性能,特别是植物疾病图像分类任务。该框架旨在通过本体知识增强MLLMs的语义理解和解释能力。
➡️ 方法简介:研究团队提出了一种结合本体知识和MLLMs的新框架,用于分类植物疾病图像。该方法首先从现有的疾病本体中提取与疾病相关的异常概念,然后通过这些概念生成提示,提供给MLLMs。MLLMs返回的异常观察结果被转换为OWL类定义,再通过推理器从本体中获取相应的疾病类别,最终返回诊断结果。
➡️ 实验设计:研究团队在四个不同的水稻疾病类别(Brown Spot、Leaf Blast、Leaf Scald、Narrow Brown Spot)上进行了实验,每个类别收集了20张图像。实验评估了四种领先的MLLMs(GPT-4V、Gemini-Pro-Vision、LLaVA、Claude-3)在不同概念(症状、颜色、形状)识别上的性能。评估指标包括Exact Measure (EM) 和 ConceptWiseAccuracy,以衡量模型输出与本体定义概念的对齐程度。
Surveying the MLLM Landscape: A Meta-Review of Current Surveys
➡️ 论文标题:Surveying the MLLM Landscape: A Meta-Review of Current Surveys
➡️ 论文作者:Ming Li, Keyu Chen, Ziqian Bi, Ming Liu, Benji Peng, Qian Niu, Junyu Liu, Jinlang Wang, Sen Zhang, Xuanhe Pan, Jiawei Xu, Pohsun Feng
➡️ 研究机构: Georgia Institute of Technology、Indiana University、Purdue University、AppCubic、Kyoto University、University of Wisconsin-Madison、Rutgers University、National Taiwan Normal University
➡️ 问题背景:多模态大型语言模型(Multimodal Large Language Models, MLLMs)已成为人工智能领域的重要力量,能够处理和生成多种模态的内容,如文本、图像、音频和视频。这些模型通过整合多种数据类型,超越了单模态模型的限制,实现了更全面和复杂的应用,从自主系统到医疗诊断。随着MLLMs能力的扩展,对其性能进行全面和准确的评估变得越来越重要。
➡️ 研究动机:随着MLLMs的快速发展,该领域产生了大量的调查文献,每篇文献都探讨了这些模型的特定方面。然而,这些文献的数量和多样性使得研究人员和从业者难以把握该领域的当前状态。因此,本研究旨在通过“调查的调查”(survey of surveys)来综合现有文献的关键见解,并将其组织成11个核心领域:通用、评估、安全、偏见、代理、应用、检索增强生成(RAG)、图、数据、持续学习和高效学习。这有助于识别主要主题、趋势和挑战,突出基准测试、数据集和性能指标,并为未来的研究方向提供指导。
➡️ 方法简介:研究团队综合了58篇最新和最前沿的调查文献,这些文献涵盖了MLLM领域的广泛主题,从总体概述到具体应用和挑战。每篇调查文献都基于技术焦点(架构、模型、数据集)、应用(计算机视觉、医疗保健、机器人等)、安全性和偏见(模型安全、公平性、鲁棒性)以及新兴趋势(未来方向)进行了分析。
➡️ 实验设计:研究没有进行具体的实验设计,而是通过对现有文献的综合分析,识别了MLLM领域的关键主题、趋势和挑战。研究团队详细比较了不同调查文献的贡献和方法,并考察了它们在学术界的影响。此外,研究还识别了MLLM研究中的新兴趋势和未充分探索的领域,提出了未来研究的潜在方向。
CLIP-MoE: Towards Building Mixture of Experts for CLIP with Diversified Multiplet Upcycling
➡️ 论文标题:CLIP-MoE: Towards Building Mixture of Experts for CLIP with Diversified Multiplet Upcycling
➡️ 论文作者:Jihai Zhang, Xiaoye Qu, Tong Zhu, Yu Cheng
➡️ 研究机构: The Chinese University of Hong Kong, Shanghai AI Laboratory, Schoow University
➡️ 问题背景:对比语言-图像预训练(CLIP)模型在多模态智能中扮演了重要角色,但其在编码过程中存在显著的信息损失,尤其是在处理视觉细节丰富的图像时。这种信息损失限制了单个CLIP模型的性能,尤其是在作为多模态大语言模型(MLLMs)的视觉编码器时。
➡️ 研究动机:为了克服CLIP模型在信息编码上的局限性,研究团队提出了一种新的方法——Diversified Multiplet Upcycling (DMU),通过将多个CLIP模型集成到一个混合专家(MoE)架构中,以捕捉多样化的、互补的信息,从而提高模型的性能和效率。
➡️ 方法简介:研究团队首先使用多阶段对比学习(MCL)对基础CLIP模型进行多阶段微调,生成一系列捕捉不同信息的CLIP模型。这些模型共享所有参数,除了前馈网络(FFN)层。然后,这些FFN层被用作MoE模型的专家,初始化一个CLIP-MoE模型。最后,通过微调CLIP-MoE中的路由器,确保所有专家的有效利用,从而捕捉更丰富和有用的信息。
➡️ 实验设计:研究团队在两个高质量的图像-文本数据集(Recap-DataComp-1M和ShareGPT4V)上进行了实验,评估了CLIP-MoE在零样本图像-文本检索、零样本图像分类任务以及作为MLLMs视觉编码器时的性能。实验结果表明,CLIP-MoE在这些任务上显著优于基础CLIP模型和其他基线方法,同时计算成本较低。
Visual Question Decomposition on Multimodal Large Language Models
➡️ 论文标题:Visual Question Decomposition on Multimodal Large Language Models
➡️ 论文作者:Haowei Zhang, Jianzhe Liu, Zhen Han, Shuo Chen, Bailan He, Volker Tresp, Zhiqiang Xu, Jindong Gu
➡️ 研究机构: Technical University of Munich, Amazon Web Services, LMU Munich, Munich Center for Machine Learning, MBZUAI, University of Oxford
➡️ 问题背景:复杂问题的回答需要隐含的多步骤推理,而问题分解(Question Decomposition, QD)是一种有效的策略,可以提高大型语言模型(LLMs)在回答复杂问题时的表现。然而,现有的研究主要集中在单模态语言模型上,而多模态大型语言模型(MLLMs)在视觉问题分解(Visual Question Decomposition, VQD)方面的能力尚未得到充分探索。
➡️ 研究动机:尽管一些最近的研究开始探索视觉问答(VQA)任务中的问题分解,但这些研究主要依赖于图像的文本描述,而不是直接利用图像信息,这可能导致信息丢失。本研究旨在系统地调查MLLMs在VQD方面的能力,评估现有MLLMs生成的子问题的质量,并提出方法来增强MLLMs的VQD能力。
➡️ 方法简介:研究团队提出了一种系统性的评估框架,包括一个评估数据集和多个评估标准,用于评估MLLMs生成的子问题的质量。此外,研究团队还构建了一个专门用于VQD的微调数据集DecoVQA,以及一个升级版数据集DecoVQA+,后者包含了一个额外的问答轮次,用于训练模型在面对不同难度的问题时决定是否进行问题分解。
➡️ 实验设计:研究团队在A-OKVQA和VQA-Introspect两个数据集上进行了实验,评估了多个MLLMs在VQD任务上的表现。实验设计了不同的评估标准,包括非重复性、相关性和可验证性,以全面评估模型生成的子问题的质量。此外,研究团队还通过DecoVQA+数据集对MLLMs进行了微调,并通过一个结合了下一个词预测损失(NTP loss)和二元交叉熵损失(BCE loss)的训练目标,进一步提高了模型在选择性问题分解方面的能力。