scispace-正则类型
搜索或查询
写者

埃文谢尔默

其它属性 :Adobe系统
生物类:betway亚洲Evanshelhamer是加州大学伯克利分校学术研究员betway亚洲作者为专题研究作贡献:计算机科学划分作者 Hindex有22名,共同编写38份出版物,接收56929引用Evan Shelhamer前从属关系包括Adobe系统

论文类
多过滤器
过程文章 · 多尔市 ·
2015年6月7日
TL;DR:关键洞察力是构建“完全卷积式”网络,收集任意大小输入并产生相应大小输出并高效推理学习
抽象性 :卷积网络是强视觉模型 产生特征层次显示卷积网络 训练端对端像素 超出语义分割关键洞察力建网 取任意大小输入 并产生相应大小输出 高效推理学习定义并详解完全卷积网络空间,解释网络应用空间稠密预测任务,并连接前位模型现代分类网络(AlexNet[20]、VGG网[31]和GoogleNet[32])完全演化成网络并微调[3]分治任务定义跳转结构 将深度粗度层信息 和浅度精度层信息的外观信息合并完全卷积网络实现PASCALVOC最新分解(2012年20%相对62.2%IU,NYUDv2和SIFT流),而典型图像则需要不到五分之一秒推理

28225引用

贴出内容 ·
TL;DR:affe由作者讨论,BSD许可C++库配有ython和MATLAB绑定软件,用于培训和部署通用卷积神经网络和其他深入模型高效处理商品结构
抽象性 :Cafe向多媒体科学家和从业者提供清洁和可修改框架,用于最先进深学习算法并收集参考模型框架是一个BSD许可C++库,配有ython和MATLAB绑定,用于培训和部署通用卷积神经网络和其他深入模型高效处理商品结构CUDAGPU计算CEFE适应产业和互联网媒体需求,每天处理4,000万图象单K40或TittanGPUCaffe通过分离模型表示方式和实际实现方式允许实验和平台间无缝切换以方便开发从原型机器向云环境部署Cafe由Berkery视觉学习中心维护开发betway亚洲驱动持续研究项目、大规模工业应用和启动视觉、语音和多媒体原型

12 531引用

过程文章 · 多尔市 ·
032014年11月
TL;DR:Cafe向多媒体科学家和从业者提供清洁和可修改框架,用于最先进深入学习算法和集合参考模型,用于培训和部署通用卷积神经网络和其他深入模型
抽象性 :Cafe向多媒体科学家和从业者提供清洁和可修改框架,用于最先进深学习算法并收集参考模型框架是一个BSD许可C++库,配有ython和MATLAB绑定,用于培训和部署通用卷积神经网络和其他深入模型高效处理商品结构CUDAGPU计算caffe适应产业和互联网媒体需求Cafe允许平台实验和畅通切换从原型机器向云环境部署方便性。 Caffe由Berkele视觉学习中心维护开发betway亚洲驱动持续研究项目、大规模工业应用和启动视觉、语音和多媒体原型

10,161引用

贴出内容 ·
TL;DR:显示卷积网络自始自终培训像素对像素,提高先前语义分割最佳结果
抽象性 :卷积网络是强视觉模型 产生特征层次显示卷积网络 训练端对端像素 超出语义分割关键洞察力建网 取任意大小输入 并产生相应大小输出 高效推理学习定义并详解完全卷积网络空间,解释网络应用空间稠密预测任务,并连接前位模型并微调分治任务定义新结构 从深粗层和浅细层外观信息并发完全卷积网络实现PASCALVOC最新分解(20%相对提高至62.2%2012年IU、NUUDv2和SIFT流),而推理取秒三分之一为典型图像

9803引用

杂志文章 · 多尔市 ·
TL;DR:完全卷积网络建议合并深粗层语义信息与浅细层外观信息以产生精密分块
抽象性 :卷积网络是强视觉模型 产生特征层次显示卷积网络 训练端对端像素 提高前优语义分割关键洞察力建网 取任意大小输入 并产生相应大小输出 高效推理学习定义并详解完全卷积网络空间,解释网络应用空间稠密预测任务,并连接前位模型并微调分治任务定义跳转结构 将深度粗度层信息 和浅度精度层信息的外观信息合并PASCALVOC完全变换实现分解(2012年比67.2%平均IU提高30%),NYUDv2,SIFT流和PASCAL通文,而典型图像推理取秒之十分之一

4 960引用


引用
多过滤器
过程文章 · 多尔市 ·
开明何一号 ,Xiangyu Zhang一号 ,少庆任一号 ,建孙一号 ·
微软 一号
2016年6月27日
TL;DR:作者在文章中建议剩余学习框架,以方便网络培训深度远比前文高得多,前文ILSVRC2015分类任务排名第一
抽象性 :深度神经网络更难训练提供剩余学习框架以方便网络培训深度远比前用深清晰重构层为学习剩余函数并参考层输入,而不是学习非参考函数我们提供综合实证证据表明,这些剩余网络更容易优化,并可从深度大幅提高中获取精度图像网数据集上,我们评价深度达152层-8x比VGG网[40]但仍复杂度低一组剩余网实现3.57%图像网测试集误差本结果取ILSVRC2015分类任务第一位并分析CIFAR-10100和1000层深度表示对许多视觉识别任务至关重要单因极深表达方式,我们从COO物体检测数据集获取28%相对改善深残留网是我们提交ILSVRC和COCO2015比赛的基础1, 在那里我们也赢得图像网检测任务第一位,图像网定位,COCO检测和COCO分割

123 388引用

过程文章 ·
卡伦西蒙扬一号 ,AndrewZiserman一号 ·
牛津大学 一号
2014年9月4日
TL;DR:这项工作调查卷积网络深度对大规模图像识别设置精度的影响,使用极小卷积滤波结构显示,前科配置可通过推深至16-19权值层实现重大改善
抽象性 :研究卷积网络深度对大规模图像识别设置精度的影响我们的主要贡献是用极小3x3卷积滤波对深度提高网络进行彻底评价,显示通过将深度推向16-19权值层可大大改善前科配置发现基础图像网挑战2014提交并显示我们表示与其他数据集相容性良好, 并实现最新结果betway亚洲并公诸于众的ConvNet两种最优表现模型 以方便深入研究 计算机视觉应用

55235引用

过程文章 ·
卡伦西蒙扬一号 ,AndrewZiserman一号 ·
牛津大学 一号
2015年1月01日
TL;DR:论文作者调查卷积网络深度对大规模图像识别设置精度的影响并显示通过推深至16-19层可显著改善前科配置
抽象性 :研究卷积网络深度对大规模图像识别设置精度的影响我们的主要贡献是用极小3x3卷积滤波对深度提高网络进行彻底评价,显示通过将深度推向16-19权值层可大大改善前科配置发现基础图像网挑战2014提交并显示我们表示与其他数据集相容性良好, 并实现最新结果betway亚洲并公诸于众的ConvNet两种最优表现模型 以方便深入研究 计算机视觉应用

49914引用

书籍章 · 多尔市 ·
奥拉夫·龙伯格一号 ,Philipp菲舍尔一号 ,ThomasBrox一号 ·
2015年10月5日
TL;DR:内伯等人由作者讨论的网络培训策略依赖强使用数据增强高效使用可用注解样本,从微小图像中培训端对端并优于前最佳方法(滑窗卷网)
抽象性 :大都同意深网络培训成功需要千分注解培训样本本文介绍网络训练策略 依赖强力使用数据扩充 高效使用备注样本架构由链路捕捉上下文和对称扩展路径组成,使精确定位成为可能显示网络端对端训练极少图像并优于前最佳方法(滑动窗口卷积网)ISBI挑战电子显微机栈神经结构分割使用同一个网络培训传输光显像片(相位对比度和DIC),我们在2015年大差中赢得ISBI细胞跟踪挑战网络速度很快512x512图像分割最近GPU小秒完全实现(基于Cafe)和训练网络见http://lmb.informik.uni-freiburg.de/people/ronneber/u-net

49590引用

贴出内容 ·
开明何一号 ,Xiangyu Zhang一号 ,少庆任一号 ,建孙一号 ·
微软 一号
TL;DR:这项工作提供了一个剩余学习框架,以方便深度远比以前使用的网络培训,并提供综合实证证明显示这些剩余网络更容易优化,并可从深度大幅提高中获取精度
抽象性 :深度神经网络更难训练提供剩余学习框架以方便网络培训深度远比前用深清晰重构层为学习剩余函数并参考层输入,而不是学习非参考函数我们提供综合实证证据表明,这些剩余网络更容易优化,并可从深度大幅提高中获取精度图像网数据集上我们评价残留网深度比VGG网深达152层-8x,但仍复杂度低一组剩余网实现3.57%图像网测试集误差本结果取ILSVRC2015分类任务第一位并分析CIFAR-10100和1000层深度表示对许多视觉识别任务至关重要单因极深表达方式,我们从COO物体检测数据集获取28%相对改善深残留网是我们提交ILSVRC和COCO2015竞赛的基础,我们也在ImageNet检测、图像网定位、COCO检测和COC分治任务中赢得第一位

44703引用