能被百度收录的帖子网站有哪些呢❝收录好丶效果好/进来❞帖子如何被百度收录

2024-08-12
来源:网络整理

尊敬的客户,您好!我们是北京一家专注互联网技术服务公司,可以提供收录效果好文章排名好的网站进行发文,发得多,各种关键词排名就多流量越多越稳定,如果您有需要欢迎您前来资讯!可以随意添加图文和视频广告,助您的企业或者项目服务实现推广效果!如需合作欢迎请加微信


下一篇文章内容预览:


近日,计算机视觉领域“奥斯卡”CVPR 2020正式公布了论文录用结果。随着投稿数量的激增,论文录用率开始出现连续下滑,今年共收到6656篇有效投稿,最终录用1470篇论文,录取率为22%左右,较去年的25%下降了3%。在论文录用率下降的同时,中国科技公司的论文录用数量不减反增,百度作为代表性的AI公司,今年共有22篇论文入选,较去年的17篇增加了5篇。

近年来,CVPR的蓬勃发展,很大程度上得益于中国科技公司的贡献,在本次大会上,百度就有22篇论文入选,涵盖了视觉领域的人脸检测与识别、视频理解与分析、图像超分辨率、自动驾驶中的车辆检测、场景实例级分割等多个热门细分领域,也向国际社会展示了中国视觉技术的深厚积淀。

除了多篇论文入选之外,百度还将在今年 CVPR 上联合悉尼科技大学、南开大学等院校共同主办第二届弱监督学习研讨会(Data )以及第四届活体检测研讨会( ),与更多顶尖学者进行深入交流。

以下为百度入选 CVPR 2020 的部分论文介绍:

人脸检测与识别

: 进入高

最近,利用在人脸检测器上构建了一个结合分类和坐标框回归的多任务学习问题。有效的设计和匹配策略使得人脸检测器能够在较大的姿势和尺度变化下准确定位人物。本文,百度提出了一种在线高质量挖掘策略,可以用高质量来补偿异常人脸( ),该方法可以成为基于的单步人脸检测。该方案在FDDB、AFW、Face等多个数据集上的实验中展示了其优越性,并在2019年Face and 比赛中以57.13%的mAP夺冠,在国际上享有盛誉。

: a - 高 3D 脸 3D 脸

该论文发表了大规模、高精度的3D人脸模型数据库,并首次提出了一种从单幅图像预测高精度、可控的3D人脸模型的方法,该数据库包含约1000个3D人脸模型,每个模型包含基模型以及4K分辨率的位移图和纹理图,可以表现人脸极其细微的3D结构和纹理,与现有的公开3D人脸数据库相比,在模型数量和质量上处于世界最高水平。

基于该数据库,本文还探索了一个颇具挑战性的新课题:以单张人脸图像作为输入,预测出一个高精度、表情可控的3D人脸模型,该方法的预测结果可以作为参考,该数据库及代码将在不久的将来免费发布,供学术研究用于非商业用途。

目前主流的人脸识别方法很少考虑不同层次的多尺度局部特征。为此,本文提出了一种分层金字塔多样化注意力模型。当人脸的整体外观发生剧烈变化时,局部区域将发挥重要作用。一些最近的工作应用注意力模块来自动定位局部区域。如果不考虑多样性,学习到的注意力通常会围绕一些相似的局部块产生冗余响应,而忽略其他潜在的判别性局部块。

此外,由于姿势或表情的变化,局部块可能会出现在不同的尺度上。为了缓解这些挑战,百度团队提出了一个金字塔多样化注意力模块,以自动自适应地学习多尺度的多样化局部表示。具体来说,开发了一个金字塔注意力模块来捕获多尺度特征;同时,开发了一种多样化的学习方法来鼓励模型关注不同的局部块。其次,为了融合来自低层的局部细节或小尺度面部特征图,可以使用分层双线性池化来代替连接或加法。

物体检测与追踪

-:-到- 3D

物体检测是机器人和自动驾驶领域中最重要的模式识别任务之一。在本文中,我们提出了一种领域自适应的方法来增强稀疏点云特征的鲁棒性。更具体地说,我们使用领域自适应的方法来增强来自真实场景的稀疏点云特征的鲁棒性。来自点云的特征(感知域中的特征)与来自包含丰富细节的完整虚拟点云的特征(概念域中的特征)相关联。这种领域自适应特征关联的方法实际上模拟了人脑感知物体时的联想功能。

该3D物体检测算法增强了训练过程中的特征提取能力哪个平台百度收录的好一点,并且不需要在推理阶段引入任何额外的组件,使得该框架易于集成到各种3D物体检测算法中。

百度收录好的平台_哪个平台百度收录的好一点_百度收录有什么好处

基于单帧点云的3D目标检测器通常无法应对目标遮挡、距离较远、采样不均匀等情况。点云视频(由多帧点云组成)通常蕴含着丰富的时空信息,可以改善上述情况。为了达到良好的检测效果,本文提出了一种端到端的在线3D点云视频物体检测器。

论文中的()可以将点云顶视图下的非空网格编码成图节点,并在节点间传递信息,动态改善节点感受野,可以有效结合图空间的非欧几里得特性和CNN的欧几里得特性。在时空特征聚合模块中,提出了空间和时间注意机制,以加强原来的Conv-GRU层。空间注意机制对新的进行前景增强和背景抑制,时间注意机制用于对齐相邻帧的动态前景对象。这个3D点云视频对象检测器在大型基准集上实现了最先进的结果。

A 和 -

使用单目标跟踪器(SOT)作为运动预测模型进行在线多目标跟踪(MOT)是一种流行的方法,但该方法通常需要额外的复杂相似性估计模型来解决相似目标干扰、密集遮挡等问题。在本文中,我们利用多任务学习策略将运动预测和相似性估计结合到一个模型中。

值得注意的是,模型还设计了一个三重网络,可以同时进行SOT训练、目标ID分类和排序,网络输出的判别性特征使得模型能够更精准地定位、识别目标并进行多目标数据关联;此外,论文提出了一个task-的模块来强调特征的不同上下文区域,进一步强化了针对SOT和相似度估计任务的特征。该方法最终实现了低存储(30M)高效率(5FPS),并在MOT 2016和MOT 2017标准测试集上取得了领先的结果。

视频理解与分析

: - -文本

受到 BERT 在自监督训练中的启发,百度团队进行了类似的视频与文本联合建模,并基于叙事视频研究了视频与文本的对应关系。对齐的文本由现有的自动语音识别功能提供。这些叙事视频是研究视频与文本关系的丰富数据来源。

增强视频文本特征,发现细粒度物体和全局动作意图。百度团队已经在文本视频片段检索、视频字幕生成、视频问答、动作分析等多个视频和语言任务上验证了该算法的泛化能力,在片段和动作片段定位等方面明显优于一些最新的视频文本处理算法,进一步证明了其在视频文本特征学习方面的优越性。

本文的目的是设计一个快速交互式视频分割系统。用户可以根据视频的某一帧在目标物体上画一条简单的线,分割系统就会从整个视频中分割出目标物体。分割方法通常使用两个独立的神经网络进行交互式帧分割,并将分割结果传输到其他帧。

本文将交互和传导合二为一,采用像素法,视频中每一帧只需要提取一次像素,效率更高。另外该方法采用创新的内存存储机制,将之前交互的内容存储起来,作用于每一帧并存储,在新一轮交互时再读取内存中对应帧的 map并及时更新内存,该方法大大提高了分割结果的鲁棒性,在数据集中取得了领先的效果。

与自我

百度收录好的平台_百度收录有什么好处_哪个平台百度收录的好一点

尽管最近在全监督领域中动作分割技术取得了进展,但它们的性能仍然不足。一个主要的挑战是时空变化的问题(例如,不同的人可能以各种方式执行相同的动作)。本文使用未标记的视频通过将动作分割任务重新设计为跨域()问题来解决此问题,而此跨域问题主要针对时空变化引起的领域差异。

为了减少差异,本文提出了“自监督时间自适应()”,它包含两个自监督辅助任务(域预测和),以联合对齐嵌入不同尺度时间动态的跨域特征空间。这比其他域自适应(DA)方法取得了更好的效果。在三个具有挑战性的公共数据集(GTEA、和)上,它远远领先于当前最先进的方法,并且只需要 65% 的标记训练数据。它可以实现与当前最先进的方法相当的性能,这也表明该方法可以有效利用未标记的目标视频来适应各种变化。

图像超分辨率

地图 -

随着深度信息的应用范围越来越广,深度图像超分辨率问题受到了广泛研究者的关注。深度图像超分辨率是指基于低分辨率深度图像获取高质量的高分辨率深度图像。本文提出了一种深度图像超分辨率方法,分析了低分辨率深度图像的生成方法,提出了两种模拟低分辨率深度图像生成的方法:带噪声的非线性插值下采样方法和区间下采样生成方法。

针对不同类型的低分辨率深度图像,本文采用迭代残差学习框架,以低分辨率深度图像作为输入,以从低到精的方式逐步恢复高分辨率深度图像的高频信息;同时,采用通道增强策略,强化包含更多高频信息的通道在整个学习框架中的作用;此外,采用多阶段融合策略,有效复用从低到精过程中获取的有效信息;最后,通过TGV约束和输入损失函数进一步优化,得到高分辨率深度图像。所提方法可以有效处理深度图像超分辨率问题,与目前已知方法相比具有显著的效果和优势。

车辆识别

3D -

在自动驾驶的场景下,准确感知车辆的“特殊”状态对驾驶安全至关重要(例如打开车门时可能会有乘客下车,闪烁的尾灯意味着即将变道),针对这一问题,本文提出了一种新的数据合成(增强)方法,即通过对齐的部件级3D模型对2D图像中的车辆进行编辑,自动生成大量“特殊”状态(例如:打开车门、后备箱、引擎盖、闪烁的前灯等),针对生成的训练数据,本文设计了双路径主干网络,使得模型可以泛化到真实测试数据,相比传统的模型渲染方法,该方法兼顾了领域差异问题,更加轻量便捷。

为了验证方法的有效性,本文构建了CUS(Cars in)数据集,该数据集标注了约1400张真实街道场景中特殊状态的车辆图像,实验结果表明,本文提出的方法能够有效地进行车辆检测、整车实例级分割、部件语义分割和状态描述,对自动驾驶安全决策具有重要意义。

神经网络架构搜索

GP-NAS:

NAS()通过自动搜索深度神经网络的模型结构,在各类计算机视觉任务中已经超越了人工设计的模型结构的表现。本文旨在解决 NAS 中的三个重要问题:

(1)如何衡量模型结构与其性能的相关性?

(2)如何评估不同模型结构之间的相关性?

(3)如何利用少量样本来了解这些相关性?

为此,本文首先从贝叶斯的角度对这些相关性进行建模。

哪个平台百度收录的好一点_百度收录有什么好处_百度收录好的平台

首先,引入一种新的基于高斯过程的NAS(GP-NAS)方法,通过定制的核函数和均值函数对相关性进行建模。此外,均值函数和核函数都可以在线学习。,以实现不同搜索空间中复杂相关性的自适应建模。此外,通过结合基于互信息的采样方法,可以用最少的采样次数估计/学习GP-NAS的均值函数和核函数。

通过对均值函数和核函数的学习,GP-NAS可以预测任意模型结构在不同场景、不同平台下的性能,并从理论上得到这些性能的置信度,证明了算法的有效性,并取得了SOTA实验结果。

: 面對面

本文提出了一种基于神经网络架构搜索的方法,同时搜索适用于人脸检测的特征提取器和特征金字塔。动机是我们发现一个有趣的现象:为图像分类任务设计的流行特征提取器已经广泛应用于一般物体检测任务,验证了其重要的兼容性,但人脸检测任务并没有达到预期的效果。同时,不同的特征提取器和特征金字塔的组合并不是完全正相关的。

本文首先分析了较好的特征提取器,并提出了适合人脸的搜索空间;其次提出了特征金字塔注意模块(FPN-),加强特征提取器与特征金字塔的联系;最后利用SNAS方法同时寻找适合人脸的特征提取器和特征金字塔结构。在多个数据集上的实验证明了该方法的优越性。

结构设计

n 为

本文提出了一种通用且易于应用的深度卷积神经网络变换单元(GCT)模块,GCT 结合了规范化方法和注意力机制,利用轻量级且易于分析的变量来隐式学习网络通道之间的关系。这些通道级变量可以直接影响神经元之间的竞争或合作,并且可以方便地与卷积网络本身的权重参数一起训练。

通过引入规范化方法,GCT模块比SE-Nets的SE模块轻量很多,这样就可以将GCT部署在每个卷积层上而不会使网络过于臃肿。我们在数据集上的几个基本视觉任务上进行了大量的实验,分别是数据集上的图像分类,COCO上的物体检测与实例分割,CNN上的视频分类,在这些视觉任务中,GCT模块的引入可以充分证明GCT模块的有效性。

表征学习

- 长期 -

现实场景中的数据通常呈现“长尾”分布,大量类别的数据较少,而少数类别的数据充足。为了解决类别不平衡问题,本文引入了一种针对长尾视觉的类别隔离记忆结构(LIM)。首先,LIM增强了卷积神经网络快速学习尾部类别特征的能力。通过存储每个类别最显著的类别特征并独立更新存储单元,LIM进一步降低了分类器出现偏差的可能性。引入了一种新颖的区域自注意机制进行多尺度空间特征编码。为了提高尾部类别识别的通用性,引入更多判别性特征是有益的。

本文提出对局部特征图进行多尺度编码,同时融合背景信息,结合LIM和区域自注意力机制,在5个数据集上取得最优效果。

CVPR是计算机视觉领域的顶级国际会议,百度之所以能在CVPR上连续多年保持优势,背后离不开百度大脑,这是百度多年AI技术积累和商业实践的结晶。

百度大脑AI开放平台已对外开放240项核心AI能力,除了在国际上屡获殊荣的视觉技术外,其语音、人脸​​、NLP、OCR等技术也成果斐然,调用量位居国内之首。未来,百度将不断精进创新人工智能技术,从顶尖学术研究、前瞻技术布局、深度行业应用等方面为全球科技发展贡献力量。

分享