• Complex
  • Title
  • Keyword
  • Abstract
  • Scholars
  • Journal
  • ISSN
  • Conference
搜索
High Impact Results & Cited Count Trend for Year Keyword Cloud and Partner Relationship

Query:

学者姓名:肖创柏

Refining:

Source

Submit Unfold

Clean All

Sort by:
Default
  • Default
  • Title
  • Year
  • WOS Cited Count
  • Impact factor
  • Ascending
  • Descending
< Page ,Total 13 >
基于Faster R-CNN的缝隙检测与提取算法 CQVIP
期刊论文 | 2021 , 47 (2) , 135-146 | 肖创柏
Abstract&Keyword Cite

Abstract :

基于Faster R-CNN的缝隙检测与提取算法

Keyword :

快速区域卷积神经网络 快速区域卷积神经网络 视觉几何组 视觉几何组 缝隙检测 缝隙检测 深度学习 深度学习 缝隙提取 缝隙提取 卷积神经网络 卷积神经网络

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 肖创柏 , 柏鳗晏 , 禹晶 et al. 基于Faster R-CNN的缝隙检测与提取算法 [J]. | 肖创柏 , 2021 , 47 (2) : 135-146 .
MLA 肖创柏 et al. "基于Faster R-CNN的缝隙检测与提取算法" . | 肖创柏 47 . 2 (2021) : 135-146 .
APA 肖创柏 , 柏鳗晏 , 禹晶 , 北京工业大学学报 . 基于Faster R-CNN的缝隙检测与提取算法 . | 肖创柏 , 2021 , 47 (2) , 135-146 .
Export to NoteExpress RIS BibTex
基于深度强化学习的舰载机在线调度方法研究 CQVIP
期刊论文 | 2021 , 31 (4) , 367-377 | 于彤彤
Abstract&Keyword Cite

Abstract :

基于深度强化学习的舰载机在线调度方法研究

Keyword :

舰载机出动回收 舰载机出动回收 在线调度 在线调度 深度强化学习 深度强化学习 多目标决策 多目标决策

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 于彤彤 , 董婷婷 , 肖创柏 et al. 基于深度强化学习的舰载机在线调度方法研究 [J]. | 于彤彤 , 2021 , 31 (4) : 367-377 .
MLA 于彤彤 et al. "基于深度强化学习的舰载机在线调度方法研究" . | 于彤彤 31 . 4 (2021) : 367-377 .
APA 于彤彤 , 董婷婷 , 肖创柏 , 高技术通讯 . 基于深度强化学习的舰载机在线调度方法研究 . | 于彤彤 , 2021 , 31 (4) , 367-377 .
Export to NoteExpress RIS BibTex
SSD与时空特征融合的视频目标检测 CQVIP
期刊论文 | 2021 , 26 (3) , 542-555 | 尉婉青
Abstract&Keyword Cite

Abstract :

SSD与时空特征融合的视频目标检测

Keyword :

目标检测 目标检测 特征融合 特征融合 光流 光流 单阶段多框检测 单阶段多框检测 特征金字塔网络 特征金字塔网络

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 尉婉青 , 禹晶 , 柏鳗晏 et al. SSD与时空特征融合的视频目标检测 [J]. | 尉婉青 , 2021 , 26 (3) : 542-555 .
MLA 尉婉青 et al. "SSD与时空特征融合的视频目标检测" . | 尉婉青 26 . 3 (2021) : 542-555 .
APA 尉婉青 , 禹晶 , 柏鳗晏 , 肖创柏 , 中国图象图形学报 . SSD与时空特征融合的视频目标检测 . | 尉婉青 , 2021 , 26 (3) , 542-555 .
Export to NoteExpress RIS BibTex
基于跨尺度字典学习的图像盲解卷积算法 CQVIP
期刊论文 | 2021 , 29 (2) , 338-348 | 彭天奇
Abstract&Keyword Cite

Abstract :

基于跨尺度字典学习的图像盲解卷积算法

Keyword :

自相似性 自相似性 稀疏表示 稀疏表示 盲解卷积 盲解卷积 跨尺度 跨尺度 字典学习 字典学习

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 彭天奇 , 禹晶 , 郭乐宁 et al. 基于跨尺度字典学习的图像盲解卷积算法 [J]. | 彭天奇 , 2021 , 29 (2) : 338-348 .
MLA 彭天奇 et al. "基于跨尺度字典学习的图像盲解卷积算法" . | 彭天奇 29 . 2 (2021) : 338-348 .
APA 彭天奇 , 禹晶 , 郭乐宁 , 肖创柏 , 光学精密工程 . 基于跨尺度字典学习的图像盲解卷积算法 . | 彭天奇 , 2021 , 29 (2) , 338-348 .
Export to NoteExpress RIS BibTex
基于跨尺度字典学习的图像盲解卷积算法 CSCD
期刊论文 | 2021 , 29 (02) , 338-348 | 光学精密工程
Abstract&Keyword Cite

Abstract :

在模糊核未知情况下利用模糊图像对清晰图像进行复原称为图像盲解卷积问题,这是一个欠定逆问题,现有的大部分算法通过引入模糊核和清晰图像的先验知识来约束问题的解空间。本文提出了一种基于跨尺度字典学习的图像盲解卷积算法,采用降采样图像训练稀疏表示的字典,并将图像纹理区域在该字典下的稀疏表示作为正则化约束引入盲解卷积目标函数中。图像降采样过程减弱了图像的模糊程度,且图像中存在冗余的跨尺度相似块,利用更清晰的图像块训练字典能够更好地对清晰图像进行稀疏表示,减小稀疏表示误差;同时,由于在纹理区域清晰图像的稀疏表示误差小于模糊图像的稀疏表示误差,在该字典下对图像中的纹理块进行稀疏表示,使重建图像偏向清晰图像。...

Keyword :

跨尺度 跨尺度 字典学习 字典学习 稀疏表示 稀疏表示 自相似性 自相似性 盲解卷积 盲解卷积

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 彭天奇 , 禹晶 , 郭乐宁 et al. 基于跨尺度字典学习的图像盲解卷积算法 [J]. | 光学精密工程 , 2021 , 29 (02) : 338-348 .
MLA 彭天奇 et al. "基于跨尺度字典学习的图像盲解卷积算法" . | 光学精密工程 29 . 02 (2021) : 338-348 .
APA 彭天奇 , 禹晶 , 郭乐宁 , 肖创柏 . 基于跨尺度字典学习的图像盲解卷积算法 . | 光学精密工程 , 2021 , 29 (02) , 338-348 .
Export to NoteExpress RIS BibTex
双加权Lp范数RPCA模型及其在椒盐去噪中的应用 CQVIP
期刊论文 | 2021 , 36 (1) , 133-146 | 董惠雯
Abstract&Keyword Cite

Abstract :

双加权Lp范数RPCA模型及其在椒盐去噪中的应用

Keyword :

稀疏 稀疏 低秩 低秩 非局部自相似性 非局部自相似性 图像去噪 图像去噪 鲁棒主成分分析 鲁棒主成分分析

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 董惠雯 , 禹晶 , 郭乐宁 et al. 双加权Lp范数RPCA模型及其在椒盐去噪中的应用 [J]. | 董惠雯 , 2021 , 36 (1) : 133-146 .
MLA 董惠雯 et al. "双加权Lp范数RPCA模型及其在椒盐去噪中的应用" . | 董惠雯 36 . 1 (2021) : 133-146 .
APA 董惠雯 , 禹晶 , 郭乐宁 , 肖创柏 , 数据采集与处理 . 双加权Lp范数RPCA模型及其在椒盐去噪中的应用 . | 董惠雯 , 2021 , 36 (1) , 133-146 .
Export to NoteExpress RIS BibTex
基于Faster R-CNN的缝隙检测与提取算法 CSCD
期刊论文 | 2021 , 47 (02) , 135-146 | 北京工业大学学报
CNKI Cited Count: 1
Abstract&Keyword Cite

Abstract :

为了使快速区域卷积神经网络(faster region-based convolutional neural network, Faster R-CNN)适用于小尺寸结构缝隙目标检测的应用,提出了一种基于Faster R-CNN的缝隙检测与提取算法,保留了小尺寸结构目标的细节信息,并提升了检测准确率.该算法分为缝隙检测和缝隙提取2个阶段.首先,在faster R-CNN的目标检测框架下,选取ImageNet数据集上的视觉几何组(visual geometry group, VGG)网络预训练模型作为特征提取网络,调整网络模型使其适应具有小尺寸结构的缝隙目标,并通过缝隙检测网络的训练确定最优的网...

Keyword :

缝隙提取 缝隙提取 缝隙检测 缝隙检测 深度学习 深度学习 视觉几何组 视觉几何组 卷积神经网络 卷积神经网络 快速区域卷积神经网络 快速区域卷积神经网络

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 肖创柏 , 柏鳗晏 , 禹晶 . 基于Faster R-CNN的缝隙检测与提取算法 [J]. | 北京工业大学学报 , 2021 , 47 (02) : 135-146 .
MLA 肖创柏 et al. "基于Faster R-CNN的缝隙检测与提取算法" . | 北京工业大学学报 47 . 02 (2021) : 135-146 .
APA 肖创柏 , 柏鳗晏 , 禹晶 . 基于Faster R-CNN的缝隙检测与提取算法 . | 北京工业大学学报 , 2021 , 47 (02) , 135-146 .
Export to NoteExpress RIS BibTex
基于点对相似度的深度非松弛哈希算法 CSCD
期刊论文 | 2021 , 47 (5) , 1077-1086 | 自动化学报
Abstract&Keyword Cite

Abstract :

哈希学习能够在保持数据之间语义相似性的同时,将高维数据投影到低维的二值空间中以降低数据维度实现快速检索.传统的监督型哈希学习算法主要是将手工设计特征作为模型输入,通过分类和量化生成哈希码.手工设计特征缺乏自适应性且独立于量化过程使得检索的准确率不高.本文提出了一种基于点对相似度的深度非松弛哈希算法,在卷积神经网络的输出端使用可导的软阈值函数代替常用的符号函数使准哈希码非线性接近-1或1,将网络输出的结果直接用于计算训练误差,在损失函数中使用l1范数约束准哈希码的各个哈希位接近二值编码.模型训练完成之后,在网络模型外部使用符号函数,通过符号函数量化生成低维的二值哈希码,在低维的二值空间中进行数据的存储与检索.在公开数据集上的实验表明,本文的算法能够有效地提取图像特征并准确地生成二值哈希码,且在准确率上优于其他算法.

Keyword :

卷积神经网络 卷积神经网络 非松弛 非松弛 哈希学习 哈希学习 交叉熵 交叉熵

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 汪海龙 , 禹晶 , 肖创柏 . 基于点对相似度的深度非松弛哈希算法 [J]. | 自动化学报 , 2021 , 47 (5) : 1077-1086 .
MLA 汪海龙 et al. "基于点对相似度的深度非松弛哈希算法" . | 自动化学报 47 . 5 (2021) : 1077-1086 .
APA 汪海龙 , 禹晶 , 肖创柏 . 基于点对相似度的深度非松弛哈希算法 . | 自动化学报 , 2021 , 47 (5) , 1077-1086 .
Export to NoteExpress RIS BibTex
SSD与时空特征融合的视频目标检测 CSCD
期刊论文 | 2021 , 26 (3) , 542-555 | 中国图象图形学报
Abstract&Keyword Cite

Abstract :

目的 视频目标检测旨在序列图像中定位运动目标,并为各个目标分配指定的类别标签.视频目标检测存在目标模糊和多目标遮挡等问题,现有的大部分视频目标检测方法是在静态图像目标检测的基础上,通过考虑时空一致性来提高运动目标检测的准确率,但由于运动目标存在遮挡、模糊等现象,目前视频目标检测的鲁棒性不高.为此,本文提出了一种单阶段多框检测(single shot multibox detector,SSD)与时空特征融合的视频目标检测模型.方法 在单阶段目标检测的SSD模型框架下,利用光流网络估计当前帧与近邻帧之间的光流场,结合多个近邻帧的特征对当前帧的特征进行运动补偿,并利用特征金字塔网络提取多尺度特征用于检测不同尺寸的目标,最后通过高低层特征融合增强低层特征的语义信息.结果 实验结果表明,本文模型在ImageNet VID(Imagelvet for video object detetion)数据集上的mAP(mean average precision)为72.0%,相对于TCN(temporal convolutional networks)模型、TPN+LSTM(tubelet proposal network and long short term memory network)模型和SSD+孪生网络模型,分别提高了24.5%、3.6%和2.5%,在不同结构网络模型上的分离实验进一步验证了本文模型的有效性.结论 本文模型利用视频特有的时间相关性和空间相关性,通过时空特征融合提高了视频目标检测的准确率,较好地解决了视频目标检测中目标漏检和误检的问题.

Keyword :

光流 光流 目标检测 目标检测 单阶段多框检测 单阶段多框检测 特征融合 特征融合 特征金字塔网络 特征金字塔网络

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 尉婉青 , 禹晶 , 柏鳗晏 et al. SSD与时空特征融合的视频目标检测 [J]. | 中国图象图形学报 , 2021 , 26 (3) : 542-555 .
MLA 尉婉青 et al. "SSD与时空特征融合的视频目标检测" . | 中国图象图形学报 26 . 3 (2021) : 542-555 .
APA 尉婉青 , 禹晶 , 柏鳗晏 , 肖创柏 . SSD与时空特征融合的视频目标检测 . | 中国图象图形学报 , 2021 , 26 (3) , 542-555 .
Export to NoteExpress RIS BibTex
双光流网络指导的视频目标检测 CSCD
期刊论文 | 2021 , 26 (10) , 2473-2484 | 中国图象图形学报
Abstract&Keyword Cite

Abstract :

目的 卷积神经网络广泛应用于目标检测中,视频目标检测的任务是在序列图像中对运动目标进行分类和定位.现有的大部分视频目标检测方法在静态图像目标检测器的基础上,利用视频特有的时间相关性来解决运动目标遮挡、模糊等现象导致的漏检和误检问题.方法 本文提出一种双光流网络指导的视频目标检测模型,在两阶段目标检测的框架下,对于不同间距的近邻帧,利用两种不同的光流网络估计光流场进行多帧图像特征融合,对于与当前帧间距较小的近邻帧,利用小位移运动估计的光流网络估计光流场,对于间距较大的近邻帧,利用大位移运动估计的光流网络估计光流场,并在光流的指导下融合多个近邻帧的特征来补偿当前帧的特征.结果 实验结果表明,本文模型的mAP(mean average precision)为76.4%,相比于TCN(temporal convolutional networks)模型、TPN+LSTM(tubelet proposal network and long short term memory network)模型、D(&T loss)模型和FGFA(flow-guided feature aggregation)模型分别提高了28.9%、8.0%、0.6%和0.2%.结论 本文模型利用视频特有的时间相关性,通过双光流网络能够准确地从近邻帧补偿当前帧的特征,提高了视频目标检测的准确率,较好地解决了视频目标检测中目标漏检和误检的问题.

Keyword :

运动估计 运动估计 运动补偿 运动补偿 卷积神经网络(CNN) 卷积神经网络(CNN) 特征融合 特征融合 目标检测 目标检测 光流网络 光流网络

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 尉婉青 , 禹晶 , 史薪琪 et al. 双光流网络指导的视频目标检测 [J]. | 中国图象图形学报 , 2021 , 26 (10) : 2473-2484 .
MLA 尉婉青 et al. "双光流网络指导的视频目标检测" . | 中国图象图形学报 26 . 10 (2021) : 2473-2484 .
APA 尉婉青 , 禹晶 , 史薪琪 , 肖创柏 . 双光流网络指导的视频目标检测 . | 中国图象图形学报 , 2021 , 26 (10) , 2473-2484 .
Export to NoteExpress RIS BibTex
10| 20| 50 per page
< Page ,Total 13 >

Export

Results:

Selected

to

Format:
Online/Total:1785/2698379
Address:BJUT Library(100 Pingleyuan,Chaoyang District,Beijing 100124, China Post Code:100124) Contact Us:010-67392185
Copyright:BJUT Library Technical Support:Beijing Aegean Software Co., Ltd.