极速一分快3规律HCP Lab 12篇论文入选世界顶级计算机视觉会议 CVPR 2019

  • 时间:
  • 浏览:291
  • 来源:UU直播-UU直播官方

雷锋网 AI 科技评论按:本文由中山大学人机物智能融合实验室(HCP 极速一分快3规律Lab)特约供稿。全球计算机视觉三大顶会之一 CVPR 2019 (IEEE Con极速一分快3规律ference on Compu极速一分快3规律ter Visionand Pattern Recognition) 于 6月 16~20日 在美国洛杉矶如期举办。

CVPR 作为计算机视觉三大顶级会议之一,时不时以来都备受关注。被 CVPR 收录的论文更是代表了计算机视觉领域的最新发展方向和水平。在谷歌学术发表的2018年最新的学术期刊和会议影响力排名中,CVPR排名第20,这是计算机领域顶会第一次进入Top20的行列。

在论文方面,CVPR 2019 年共收到了 5165 篇极速一分快3规律有效提交论文,比去年 CVPR2018 增加了 56%,论文接收方面,本届大会共接收了 180 论文,接收率接近 25.2%,据统计共有 288 篇 Oral 论文。

在本届CVPR大会上,中山大学人机物智能融合实验室(HCP Lab)共有12篇论文被收录,在国内研究组里属于顶尖水平。HCP Lab实力强潜力足势头猛,对学术上再创佳绩满怀信心。

以下村里人 将精选几篇论文展示给村里人 ,欢迎感兴趣的村里人 关注阅读。

【01】

Blending-target Domain Adaptation by Adversarial Meta-Adaptation Networks

通过对抗元适应网络除理混合目标域适应

在大数据时代下,机器学习学家面临着日新月异的无标注数据更新和在哪几个新数据下进行模型再训练的问题。如何利用事先的标注数据(源域,source domain)对各种各样的无标注数据(目标域,target domain)进行知识迁移,也即所谓的域适应问题,成为学界以及工业界备受关注的研究热点。遗憾的是,目前对于域适应问题,大次责除理方案都基于目标域均由原先或多个显式目标域所组成(如图一a)。而事实上,多种真实应用场景如自动驾驶和云数据除理等,都有面临着多个目标域混合的域适应问题(如图一b)。在多个目标域混合下,每原先目标数据都可不还可以来自其中原先子目标域,但来自于哪原先子域都有不可知的。有些可能直接使用一般的域适应算法去除理混合域适应问题,训练出来的迁移学习模型会忽略混合子域之间的域偏移(domain shift)。这会导致 负迁移问题从而损害模型的效果。

为了除理混合目标域情况汇报下面进行有效的域适应训练出有效的模型,村里人 提出了对抗元适应网络模型(Adversarial Meta-Adaptation Networks,AMEAN),如下图所示:

AMEAN模型有原先混合训练的迁移学习过程构建而成。第一次责启发于现有的域适应算法,也有些直接进行源域和混合目标域之间的迁移学习。类事 过程可不还可以将源域的类别信息有效迁移到目标域去,但无法消除多个子目标域之间的域偏移。目标子域之间的差异越大,那混合目标域造成的负迁移问题就会越明显。为了克服类事 问题,村里人 构建了元子域适应(meta-sub-target domain adaptation)过程。可能在混合目标域的设定下,每个目标子域越来越 显式地给出,有些也越来越 律法律办法直接对村里人 的域偏移进行惩罚。作为代替,村里人 利用深层无监督聚类算法(Unsupervised Meta Learner)对混合目标域进行划分,将每原先聚类结果看作子目标域的替代。有些,利用对抗域适应的法律法律办法对哪几个子目标域和源目标域一起进行迁移学习。事先每隔原先迭代数间隔,村里人 利用在学习中的混合目标域迁移形态进行反馈,和混合目标域的数据一起重新更新聚类结甜得后动态构建元子域适应过程中的对抗迁移学习关系和其损失函数。聚类过程与原先混合训练的迁移学习过程交替进行直到收敛。

村里人 的实验结果表明,混合目标域适应的确会为一般域适应算法造成各种各样的负迁移问题,一起村里人 的AMEAN模型可不还可以有效地克服混合目标域适应带来的负迁移效果,从而取得目前在该新问题下的最佳性能。但作为原先新的迁移学习问题,混合目标域适应远远没去到接近除理的地步。

原文代码链接:https://github.com/zjy526223908/BTDA

【02】

Knowledge-Embedded Routing Network for Scene Graph Generation

面向场景图生成的知识嵌入路由网络模型

场景图生成不仅仅需用定位和识别图像中物体的位置和类别,还需用进一步推理不同物体之间的视觉关系。然而,现实场景中物体关系的样本分布是非常不均衡的,现有的法律法律办法对于样本较多的关系,可不还可以取得较好的结果,但对于样本较为不足英文的关系,其预测结果则明显下降。场景中目标物体和村里人 可能的视觉关系之间关联的先验知识和图传播网络结合,约束目标物体视觉关系的预测空间,从而降低对样本的依赖。有些,村里人 提出了知识嵌入的路由网络模型,在统计先验知识的约束下探索目标物体和村里人 可能的视觉关系的作用,以及挖掘场景中的上下文信息,并应用场景图生成任务。

该模型首先利用物体共存的先验知识构建关联所有物体区域的图,并引入原先图传播网络传播节点信息,学习具有上下文信息的形态以辅助更好地预测物体类别。对于给定类别标签的目标物体,该模型进一步构建村里人 和可能的视觉关系的统计关联的图,并引入另原先图传播网络探索两者的交互作用,以最终预测目标物体的视觉关系。

相比于现有的法律法律办法,本文的模型通过引入先验知识隐式地约束目标物体可能的预测空间,有效地除理不同关系分布不均衡的问题。在大规模场景图生成的数据集Visual Genome上进行一定量的实验表明,本文的框架相比于现有的法律法律办法取得更好的效果。

论文代码链接:https://github.com/HCPLab-SYSU/KERN

【03】

Adaptively Connected Neural Networks

自适应连接神经网络

村里人 引入类事新的自适应连接神经网络(ACNet),从两方面改进了传统的卷积神经网络(CNN)。一是ACNet可不还可以自适应地决定神经元连接属于全局连接抑或局部连接,从而进行自适应局部推断或全局推断。村里人 可不还可以证明,现有的卷积神经网络(CNN)、经典的多层感知器(MLP)和最近提出的非局域网络(NLN)都有ACNet的特例。二是ACNet不仅可不还可以适用于传统的欧氏数据(类事图像、音频等),也可不还可以适用于非欧氏数据(graph data)。实验表明,ACNet在ImageNet-1K/CIFAR图像分类、COCO 2017目标检测和分割、CUHK03行人重识别以及CORA文档分类等任务中达到了State-of-the-art效果。

具体来说,研究人员首先使用自变换操作(Self Trans模块)提取像素级形态、卷积操作(CN N 模块)提取局部形态、多层感知器操作(MLP 模块)提取全局形态,有些使用自适应连接神经网络(ACNET模块)融合三者,得到局部与全局自适应的形态,另原先ACNet既有自变换操作和卷积操作所具有的局部推断能力,又具有多层感知器操作所具有的全局推断能力。

代码和预训练模型下载:

https://github.com/wanggrun/Adaptively-Connected-Neural-Networks/blob/master/README.md

【04】

"Weakly-Supervised Discovery of Geometry-Aware Representation for 3D Human Pose Estimation" 

基于形态表征的弱监督3D人体姿态估计

 3D 人体姿态估计是计算机视觉领域的原先热门研究课题,旨在从单张彩色图像中恢复出精确的 3D 人体姿态。作为三维人体形态建模的基础,3D 人体姿态估计在动作识别、视频分析、人机交互、虚拟现实和自动驾驶等领域中都起到非常重要的作用。近年来,3D 人体姿态估计取得了较大的发展。有些,相关数据和模型法律法律办法只局限于简单的室内场景,极大地限制了该研究问题的探索。主要导致 在于,室外冗杂场景的 3D 人体数据集的分发十分困难,受限于光学动作分发系统对场地的严格要求,只有捕捉室内场景下的简单人体动作。当测试数据中冒出高难度的人体姿态、扰动较大的拍摄视角、各式各样的人物外观以及冗杂的拍摄场景时,3D 人体姿态估计模型的泛化性往往较差。

    为此本文提出类事除理法律法律办法,拟从从一定量多视角图像中提取额外的 3D 人体形态信息,使用额外信息辅助单张图像的 3D 人体姿态估计任务。在提取额外信息的过程中,只使用蕴含 2D 标注的多视角图像作为训练集,选取编解码器作为主干网络,训练编解码器实现不同视角下 2D 人体信息的相互转换。为了让转换仅仅基于人体形态,选取 2D人体骨架作为本文法律法律办法的 2D 人体信息,而越来越 使用原始图像。进一步加入了对 3D 形态的一致性约束,使得抽取到的额外信息的 3D 形态更加稳定。可能抽取的额外信息蕴含 了人体的 3D 形态信息,什么都有 将它映射到 3D 关键点坐标可能比直接利用 2D 图像可能 2D 坐标更为容易。继而验证了仅仅使用简单的两层线性全连接层,可不还可以从额外信息中解码出相对合理的 3D 人体姿态。

    经过实验验证,本文提取的额外信息可不还可以作为对 3D 人体姿态信息的补充,简单灵活的融合到现有的 3D 人体姿态估计法律法律办法中,得到更加准确的预测结果。在标准的大型3D 人体数据库 Human3.6M 上,本文提取的额外信息对类事不同的 3D 人体姿态估计法律法律办法都有较大提升。对于现有最好的开源 3D 人体姿态估计法律法律办法,在标准 的数据划分下使用评估指标 MPJPE,本文提出的法律法律办法仍然有 7% 的提升,在现有的法律法律办法中达到最好的效果。 

【05】

Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Object Detection

通用的自适应全局推理网络及在大规模目标检测的应用

随着深层学习的发展,大规模目标检测问题逐渐成为村里人 关注的热点,通过类事 计算机视觉中的基础技术,软硬件应用产品可不还可以深层定位图片中的物体位置以及类别,并用于新零售、通用多物品识别、自动驾驶等场景。与普通检测问题不同的是,大规模目标检测导致 着一起定位并识别数千个类别,面临严重的长尾效应,目标间相互遮挡,以及更多模糊不清的目标。然而主流的目标检测法律法律办法通常独立地识别每个区域,并忽略场景中目标之间的关键语义相关性,导致 它们面对冗杂的大规模数据时检测性能大幅下降。而人类即使看完冗杂场景仍可不还可以准确理解并识别目标,可能人类了解什么都有 关联的知识域的常识知识,有些可不还可以借助知识进行学习和推理,这正是当前的检测系统所不足英文的能力。有些,关键问题是如何赋予检测系统视觉推理能力,来模仿人类推理过程。

本文研究了知识导向的图像级的自适应全局推理法律法律办法,提出了通用的自适应全局推理模型(Reasoning-RCNN),通过知识提高了对所有目标区域的自适应全局推理能力。该法律法律办法都有直接在单一图像上传播视觉形态,有些全局地演化所有类别的高级语义表示,以除理图像中的噪声或不良的视觉形态带来的影响。具体地,基于基础检测网络的形态表示,所提出的网络首先通过分发上层分类层的权重来生成每个类别的全局语义池(Global Semantic Pool),有些通过选取全局语义池中的不同语义上下文来自适应地增强每个目标区域的形态。本文提出的Reasoning-RCNN都有从可能地处噪声的所有类别的语义信息中传播信息,有些能自动发现与形态演化最相关的类别。

经过实验验证,本文提出的法律法律办法是轻量级的,通用的,可扩展的,有些可不还可以融合知识赋予任何检测网络视觉推理的能力。在不引入很多计算代价的前提下,本文提出的法律法律办法在大规模检测数据集VisualGenome(800类/800类),ADE(445类)和通用检测数据集MS COCO(80类),PASCAL VOC(20类)上均远优于有些现有的先进检测法律法律办法。

【06】

Spatial-aware Graph Relation Network for Large-scale Object Detection

空间感知的图关系网络及在大规模目标检测的应用

大规模目标检测框架需用具备一起定位并识别成千上万个具有冗杂语义和空间关系的目标,伴随着待除理的类别数很多,面临很多的小目标、越严重的类别之间目标数不平衡、目标之间相互遮挡等问题。众所周知,目标之间冗杂的语义和空间关系能助 提高检测精度。而当前的多数研究工作通常单独地对目标进行定位和识别,当哪几个法律法律办法面对大规模类别数据集时,性能会大幅下降。有些本文提出原先空间感知图关系网络(SGRN)框架来主动发现并结合关键的语义和相对空间关系来对每个对象进行推理。村里人 的法律法律办法考虑了目标之间相对位置布局和相互作用,村里人 提出的SGRN可不还可以很容易地嵌入到任何现存的检测法律法律办法中,并提高它们的检测性能。

在越来越 任何内部管理知识的情况汇报下,如何正确编码检测系统中对象之间的高阶关系?如何利用对象间的伴随关系和相对位置之间的信息进行更好的推理?哪几个问题是当今大规模目标检测框架面临的主要挑战。近期,有些工作也尝试通过构建目标之间的知识图来增强检测效果,图1a使用人工设计的知识构建原先类类之间的图。然而,类事 法律法律办法很大程度上依赖于来自广义的类别视觉的属性标注和语义关系。此外,可能语义和视觉语境之间的差异,有些空间关系可能会被忽略,固定图也无法适应全部的图像。另有些法律法律办法试图从的视觉形态中隐式地学习目标之间的全连接图。有些,全部连接的关系可能从无关对象和背景中合并了冗余和很多要的关系而变得低效和嘈杂。有些,本文的工作目标是设计原先基于图卷积神经网络的检测框架,它可不还可以一起利用语义和空间关系,直接从训练集蕴含 效地学习到可解释的稀疏图形态,并根据学到的图形态进行推理和形态传播,增强小目标、罕见类和模糊遮挡目标的形态相应提高检测结果。

本文提出的SGRN框架由原先模块组成:原先稀疏关系图学习模块(Relation Learner)和原先空间感知图推理模块(Spatial Graph Reasoning)。关系图学习模块首先从视觉形态中学习原先稀疏邻接矩阵,它保持了最相关的T个连接关系。有些,分发前原先分类器的权重,并将其映射到每个目标上,从而成为每个目标的视觉向量。目标之间的相对空间信息(距离、深层)被用来学习高斯核参数,以选取图形卷积的模式。在空间感知图形推理模块中,根据稀疏邻接矩阵和高斯核对不同区域的视觉嵌入进行演化和传播。空间图推理模块的输出与原始区域形态相连接,以改进分类和定位。

【07】

Graphonomy: Universal Human Parsing via Graph Transfer Learning

面向通用人体解析的图迁移模型

人类的视觉系统,具有在简单看一眼人物图像的情况汇报下,完成对图像中人物整体理解的能力。类事,村里人 只需看一眼图像,就可不还可以把图中人物和背景区分开来,可不还可以知道图中人物的姿势,也可不还可以识别出图中人物的穿着打扮。尽管越来越 ,最近对人物图像理解的研究都致力于为每个单独的应用开发有些种深层独立的特定的模型,譬如人物前景分割任务,粗糙的衣服分割任务和精细的人物部位或服饰解析任务等。哪几个经不足英文度调整的网络牺牲了模型的泛化能力,仅仅通过过度拟合来适应不同的数据集和不一致的标注粒度,而忽略了地处于各人物图像中潜在的人体形态形态和一起的内在语义信息。将在原先数据集上训练的模型直接拿到另原先相关数据集上重新微调是非常困难的事情,可能这需用冗余而繁重的数据标注和一定量的计算资源来重新训练每个特定的模型。为了除理哪几个现实的挑战并除理为相关任务训练冗余的模型,村里人 做出了原先创新性的尝试,研究面向通用人体解析的问题,通过单个模型来一起除理不同的、从粗粒度到细粒度的人体解析任务,如下图所示。

设计原先通用人体解析模型的关键因素是在不同的人体解析任务之间进行准确的迁移学习和知识集成,可能不同数据集之间的标签差异性很大程度上阻碍了模型和数据的统一。为了实现类事 目标,村里人 提出了原先图迁移模型,将人类知识和标签分类法显式地归纳为图表达学习,有些嵌入到卷积神经网络中去。村里人 的图迁移模型通过图迁移学习来建模多个领域的全局和通用的语义一致性,以此来除理多层次的人体解析任务,并通过信息传播使村里人 可不还可以相互能助 。

村里人 的图迁移模型集成了原先相互企业协作的模块,用于图迁移学习,如下图所示。首先,村里人 提出了原先图内推理模块来逐步改善图形态中的图表达,其中每个图节点表示数据集中的原先语义部位区域。此外,村里人 还构建了原先图间迁移模块,专注于将相关语义从原先领域的图表达中提取到另原先领域的图表达中去,从而桥接了来自不同数据集的语义标签,更好地利用了不同粒度的标注信息。

村里人 在原先人体解析数据集上进行了一定量的实验,哪几个数据集蕴含 了不同种类的语义部位和服饰标签。实验结果表明,通过图内推理模块和图间迁移模块的信息传播,村里人 的图迁移模型可不还可以关联和提取由不同数据集构建的高级的语义图表达,有效地除理了多层次的通用人体解析任务。

【08】

ClusterNet: Deep Hierarchical Cluster Network with Rigorously Rotation-Invariant Representation for Point Cloud Analysis

类事基于严格旋转不变性的点云表达以及深层层次类簇网络的点云分析法律法律办法

在三维世界中,旋转变换是类事十分自然、常见的问题,有些它对于三维物体识别也带来了很大的挑战。理论上,可能SO(3)群是原先无穷集合,同原先三维物体在不同姿态下具有不同的“克隆”。对于人类而言,村里人 能很轻易地将哪几个“克隆”判断为同原先物体;有些对于机器学习模型而言,哪几个克隆却是全部不同的输入数据,这会导致 输入空间非常庞大。

为了缓解该问题,前人做了有些尝试。①原先最简单的法律法律办法是提升模型容量有些对训练数据集进行旋转增强,类事 法律法律办法使得训练阶段的计算成本大大增加,有些也无法从根本上保证模型具有旋转不变性。对于同原先物体的类事姿态,模型可能就识别不准确了。②利用空间变换网络(Spatial transformer network)来对输入数据进行校正,类事 法律法律办法能从一定程度提升模型的旋转鲁棒性,但同样需用增强训练集,有些有些足英文理论上的保证。③利用旋转等变性网络(rotation-equivariant network)来消除旋转对于模型的影响。它设计了类事旋转等变的卷积操作,大慨给神经网络加入了类事旋转等变的先验知识,有些可能对于神经网络的每一层都施加旋转等变的约束,村里人 不能自己保证哪几个约束不不影响模型的容量。

与旋转等变性网络不同,村里人 提出了类事新的方案:直接对每原先三维物体的点云建立原先旋转不变的统一的表达(简称为RRI表达),直接从源头除理了旋转所带来的问题,将另原先冗余的输入空间大大削减。村里人 不仅从理论上证明了类事 表达具有严格旋转不变性,有些在较弱的条件下还具有信息无损性,即:当村里人 知道了原先点云的RRI表达,不管类事 点云如何旋转,假如给定旋转后点云中的原先点以及另原先不共线的k近邻点的坐标,越来越 村里人 就可不还可以重建类事 旋转后的点云。RRI表达的具体形式还具有直观的几何意义。

村里人 还提出了原先新的网络形态ClusterNet,架构如图2所示。它首先会对输入点云进行层次聚类,得到关于该点云几何形态的层次聚类树。有些村里人 沿着这棵层次聚类树去指导形态的聚合,自底向上将较小类簇的形态聚合为较大类簇的形态,直到获得整个点云的形态。

在旋转鲁棒性实验中,村里人 提出的RRI表达与ClusterNet结合的法律法律办法在旋转鲁棒性上取得了最优的表现,有些现存的基于点云的分类网络采用村里人 的RRI表达作为输入后,在旋转鲁棒性上都有明显的提升。     

【09】

Layout-graph Reasoning for Fashion Landmark Detection

类事基于堆叠式层级布局知识推理的服装关键点定位法律法律办法

近来在预测定位关键点的方面有了有些的研究法律法律办法。类事直接的法律法律办法是通过DCNNs,采用端到端的法律法律办法进行建模关键点的位置信息,如图1(a)所示。确实类事 法律法律办法得益于深层卷积网络的深层建模能力,但不足英文可解释性,对数据依赖敏感,一起在有些具有冗杂背景的场景下表现差强人意。另类事引入语法建模的法律法律办法是通过对服装关键点之间进行语法建模,比如建立领口点的对称语法,有些利用该语法形成的约束进行引导网络学习,如图1(b)所示。类事 引入内部管理自定义的语法进行建模的法律法律办法可不还可以有效提升定位关键点的性能并增强了网络的可解释性,有些该法律法律办法越来越 引入知识来建模点的空间上下文语义关联,比如袖子点属于上半身语义关联。不足英文类事 关联容易导致 在有些冗杂模糊的场景下,上下身的服装关键点预测混乱。一起目前的法律法律办法并越来越 对卷积形态图和图节点形态建模类事有效的转换法律法律办法,让知识图谱中节点的知识推理操作无法有效地和卷积网络进行无缝衔接,从而无法达到协同训练的目的。

为了克服现有技术的不足英文,一起受益于人类在认识事物的过程中,对事物进行归属分类的思想,村里人 首次提出了类事基于堆叠式层级布局知识推理的服装关键点定位法律法律办法,整体框架如图2所示。整体框架主要包括原先基础卷积网络和一系列的层级布局知识推理模块(LGR layer)。其中每个层级布局知识推理模块都蕴含 原先子模块:图-点子模块(Map-to-Node)、层级推理子模块(Layout-graph Reasoning Module)和点-图子模块(Node-to-Map)。每个层级推理子模块蕴含 图节点聚类操作、图节点反卷积操作和图节点信息传播操作。本法律法律办法首先利用基础卷积网络对输入的图像提取卷积形态图,再利用图-点子模块将卷积形态图转换为图节点形态;再利用服装关键点空间布局关系的信息结合图节点形态,输入到层级推理子模块实现层级布局知识推理,包括建模各个叶子节点的布局关系,各个上方节点的布局关系等,如图3所示,最终输出得到进化增强的叶子节点形态;最后通过点-图子模块将层级推理子模块的输出节点转换为卷积形态图;再通事先除理将卷积形态图转换为形态定位图,预测出最终的服装关键点位置。

层级布局知识推理模块(LGR layer)

本法律法律办法第一次提出层级布局知识推理的法律法律办法,并将该法律法律办法首次应用到通用服装关键点定位的任务中。相比于最近的基于多阶段预测、空间变换的注意力机制以及利用语法模型约束关键点定位的服装关键点定位法律法律办法,村里人 提出的法律法律办法不仅拥有更高的定位精度和可解释性,有些提供了类事将层级知识图谱引入卷积网络进行层级推理的机制。村里人 的法律法律办法在目前已有的原先大型fashion landmark数据集上进行测试并达到state-of-the-art的效果。

附录

1. "Blending-target Domain Adaptation by Adversarial Meta-Adaptation Networks”, Ziliang Chen, Jingyu Zhuang, Xiaodan Liang and Liang Lin Proc. of IEEE Conference onComputer Vision and Pattern Recognition (CVPR), 2019.

2. "Knowledge-Embedded Routing Network for Scene Graph Generation", Tianshui Chen, Weihao Yu, RIquan Chen, Liang LinProc. of IEEE Conference onComputer Vision and Pattern Recognition (CVPR), 2019.

3. “Adaptively Connected Neural Networks”, Guangrun Wang, Keze Wang, and Liang Lin*, Proc. of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019. 

4. "Weakly-Supervised Discovery of Geometry-Aware Representation for 3D Human Pose Estimation", Xipeng Chen, Kwan-Yee Lin, Wentao Liu, Chen Qian and Liang Lin, Proc. of IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2019

5. "Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Object Detection", Hang Xu*, ChenHan Jiang*, Xiaodan Liang, Liang Lin, Zhenguo Li, Proc. of IEEE Conference onComputer Vision and Pattern Recognition (CVPR), 2019.

6. "Spatial-aware Graph Relation Network for Large-scale Object Detection", Hang Xu*, ChenHan Jiang*, Xiaodan Liang, Zhenguo Li, Proc. of IEEE Conference onComputer Vision and Pattern Recognition (CVPR), 2019.

7. Graphonomy: Universal Human Parsing via Graph Transfer Learning,Ke Gong, Yiming Gao, Xiaodan Liang, Xiaohui Shen, Meng Wang, Liang Lin,Proc. of IEEE Conference onComputer Vision and Pattern Recognition (CVPR), 2019.

8.ClusterNet: Deep Hierarchical Cluster Network with Rigorously Rotation-Invariant Representation for Point Cloud Analysis, Chao Chen, Guanbin Li, Ruijia Xu, Tianshui Chen, Meng Wang, Liang Lin, Proc. of IEEE Conference onComputer Vision and Pattern Recognition (CVPR), 2019.

9. “Layout-Graph Reasoning for Fashion Landmark Detection”,Weijiang Yu, Xiaodan Liang, Ke Gong, Chenhan Jiang, Nong Xiao, Liang Lin; The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019

10. “Cross-Modal Relationship Inference for Grounding Referring Expressions”,Sibei Yang, Guanbin Li, Yizhou Yu; The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019

11. “Learning Personalized Modular Network Guided by Structured Knowledge”,Xiaodan Liang; The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019

12. “Rethinking Knowledge Graph Propagation for Zero-Shot Learning”,Michael Kampffmeyer, Yinbo Chen, Xiaodan Liang, Hao Wang, Yujia Zhang, Eric P. Xing; The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019

附录:中山大学HCP人机物智能融合实验室

 “中山大学HCP人机物智能融合实验室“依托于中山大学数据科学与计算机学院,围绕“人工智能原创和前沿技术”布局研究方向与课题,并与产业界开展广泛企业协作,输出一定量原创技术及孵化多个创业团队。在感知计算与智能学习、机器人与嵌入式系统、人机协同技术、大数据挖掘与分析等领域开展研究,以“攀学术高峰、踏应用实地”为工作理念。实验室目前有教授1名,副教授4名,特聘研究员3名,工程师3名。

实验室承担可能已完成各级科研项目40余项,共获得科研经费超过数千万元。科研团队在顶级国际学术期刊与会议上发表论文80余篇,包括在IEEE/ACM Trans汇刊发表论文80余篇,在CVPR/ICCV/NIPS/Multimedia/AAAI/IJCAI等顶级会议发表论文80余篇,获得NPAR 2010 Best Paper Award, ACM SIG CHI Best Paper Award Honorable Mention, ICME 2014 Best Student Paper, The World’s FIRST 10K Best Paper Diamond Award by ICME 2017,Pattern Recognition Best Paper Award等奖励。

雷锋网 AI 科技评论雷锋网(公众号:雷锋网)

雷锋网原创文章,未经授权禁止转载。详情见转载须知。