|
|
|
视频语义分析若干问题研究 |
|
论文目录 |
|
摘要 | 第5-7页 | abstract | 第7-8页 | 第一章 绪论 | 第19-31页 | 1.1 研究背景与意义 | 第19-20页 | 1.2 主要任务 | 第20-21页 | 1.3 国内外研究现状 | 第21-29页 | 1.3.1 研究现状概述 | 第21-24页 | 1.3.2 主要问题与研究现状 | 第24-29页 | 1.4 论文组织结构 | 第29-30页 | 1.5 本章小结 | 第30-31页 | 第二章 基于视频镜头分割和关键帧提取的视频表达研究 | 第31-51页 | 2.1 引言 | 第31-32页 | 2.2 相关研究 | 第32-36页 | 2.2.1 距离度量与相似度 | 第33-35页 | 2.2.2 卷积神经网络 | 第35-36页 | 2.3 基于CNN特征相似度的镜头分割算法 | 第36-41页 | 2.3.1 问题描述 | 第36-37页 | 2.3.2 特征提取 | 第37-38页 | 2.3.3 突变镜头检测 | 第38页 | 2.3.4 渐变镜头检测 | 第38-41页 | 2.4 基于完全图的视频关键帧提取算法 | 第41-42页 | 2.4.1 问题描述 | 第41页 | 2.4.2 算法设计 | 第41-42页 | 2.5 实验结果与分析 | 第42-49页 | 2.5.1 实验环境 | 第42-43页 | 2.5.2 数据来源与标注 | 第43页 | 2.5.3 评价指标 | 第43-44页 | 2.5.4 结果与分析 | 第44-49页 | 2.6 本章小结 | 第49-51页 | 第三章 基于光流和双边空间的视频分割 | 第51-67页 | 3.1 引言 | 第51-52页 | 3.2 相关研究 | 第52-56页 | 3.2.1 有监督分割 | 第52页 | 3.2.2 半监督分割 | 第52-53页 | 3.2.3 无监督分割 | 第53页 | 3.2.4 光流 | 第53-54页 | 3.2.5 双边滤波 | 第54-55页 | 3.2.6 图割 | 第55-56页 | 3.3 研究问题与过程 | 第56-65页 | 3.3.1 问题描述 | 第56页 | 3.3.2 相邻帧运动对象估计 | 第56-57页 | 3.3.3 双边空间中的视频分割 | 第57-60页 | 3.3.4 实验结果与分析 | 第60-65页 | 3.3.4.1 实验设备 | 第60页 | 3.3.4.2 参数设置 | 第60-61页 | 3.3.4.3 处理时间 | 第61页 | 3.3.4.4 评价指标与实验结果 | 第61-65页 | 3.4 本章小结 | 第65-67页 | 第四章 基于熵改进的HOG和SVM的夜间行人检测 | 第67-86页 | 4.1 相关研究 | 第67-75页 | 4.1.1 特征提取 | 第67-72页 | 4.1.2 行人检测分类器 | 第72-75页 | 4.2 研究问题与过程 | 第75-80页 | 4.2.1 提取ROIs | 第76-77页 | 4.2.2 理论分析 | 第77-78页 | 4.2.3 分类框架 | 第78-79页 | 4.2.4 头部检测 | 第79-80页 | 4.3 实验结果与分析 | 第80-84页 | 4.3.1 实验设备 | 第80页 | 4.3.2 实验步骤 | 第80-82页 | 4.3.3 实验结果与分析 | 第82-84页 | 4.3.3.1 分类与识别比较 | 第82-83页 | 4.3.3.2 行人识别性能比较 | 第83-84页 | 4.4 本章小结 | 第84-86页 | 第五章 基于运动向量和Two-StreamCNN的行为识别 | 第86-99页 | 5.1 相关研究 | 第86-87页 | 5.2 研究框架与内容 | 第87-93页 | 5.2.1 稀疏采样策略 | 第87-88页 | 5.2.2 增强运动向量 | 第88-90页 | 5.2.3 可区分表示模块 | 第90-92页 | 5.2.4 模型训练技巧 | 第92-93页 | 5.2.4.1 预训练模型 | 第92页 | 5.2.4.2 数据增强 | 第92-93页 | 5.2.4.3 小学习率与高dropout率 | 第93页 | 5.3 实验结果与分析 | 第93-96页 | 5.3.1 数据集 | 第93-94页 | 5.3.1.1 UCF | 第93页 | 5.3.1.2 THUMOS | 第93-94页 | 5.3.2 识别率与速度评估 | 第94页 | 5.3.3 训练和测试错误率 | 第94-95页 | 5.3.4 卷积过滤器可视化 | 第95-96页 | 5.3.5 召回率 | 第96页 | 5.4 本章小结 | 第96-99页 | 第六章 基于多特征融合的视频语义自然语言描述 | 第99-119页 | 6.1 相关研究 | 第99-104页 | 6.2 研究问题与过程 | 第104-116页 | 6.2.1 问题描述 | 第104-105页 | 6.2.2 特征提取 | 第105页 | 6.2.3 特征融合 | 第105-106页 | 6.2.4 视频自然语言描述模型 | 第106-107页 | 6.2.5 实验与分析 | 第107-116页 | 6.2.5.1 实验环境 | 第107-108页 | 6.2.5.2 数据集 | 第108页 | 6.2.5.3 评价指标 | 第108-109页 | 6.2.5.4 实验步骤 | 第109-110页 | 6.2.5.5 实验结果与分析 | 第110-116页 | 6.3 通用视频自然语言描述框架 | 第116-118页 | 6.3.1 背景 | 第116页 | 6.3.2 框架描述 | 第116-117页 | 6.3.3 实验结果 | 第117-118页 | 6.4 本章小结 | 第118-119页 | 第七章 结论与展望 | 第119-122页 | 7.1 全文结论 | 第119-120页 | 7.2 研究展望 | 第120-122页 | 致谢 | 第122-123页 | 参考文献 | 第123-140页 | 攻读博士学位期间取得的成果 | 第140页 |
|
|
|
|
论文编号BS3940947,这篇论文共140页 会员购买按0.35元/页下载,共需支付49元。 直接购买按0.5元/页下载,共需要支付70元 。 |
|
|
我还不是会员,注册会员!
会员下载更优惠!充值送钱! |
我只需要这篇,无需注册!
直接网上支付,方便快捷! |
|
|
|
版权申明:本目录由www.jylw.com网站制作,本站并未收录原文,如果您是作者,需要删除本篇论文目录请通过QQ或其它联系方式告知我们,我们承诺24小时内删除。 |
|
|