scispace-正则类型
搜索或查询
写者

开陈

其它属性 :谷歌,qalcomm语言,习安桥东大学 .阅读更多
生物类:betway亚洲开城科技大学学术研究员betway亚洲作者为专题研究作贡献:网络包和调度(计算)。作者 hindex59, 共写354出版物75233引用前台Cai Chen包括Google和Qalcomm


论文类
多过滤器
过程文章 ·
Tomas Mikolov一号 ,IlyaSutskever一号 ,开陈一号 ,格雷格S科拉多市一号 ,Jeffrey Dean一号 ·
谷歌 一号
2013年12月5日
TL;DR:论文展示查找文本短语的简单方法,并显示学习数以百万计短语好的向量表示法是可能的,并描述层次软max称为负采样的简单替代物
抽象性 :最近引入的连续spgram模型是学习高质量分布矢量表示法的有效方法,它捕捉大量精确语法和语义关系本文显示数例扩展提高向量质量和训练速度通过子采样频繁字数,我们大大加速并学习更多定期字表示法简单替代层次软max称负采样词义表达的固有限制是他们对字序漠不关心和无法表示单词短语举例说,“Canada”和“Air”的含义不易合并获取“AirCanada”。受此例子启发,我们提出了一个简单方法查找文本短语,并显示学习数以百万计短语的向量表示法是可能的

24012引用

贴出内容 ·
TL;DR:论文提出了两个新模式架构,用于计算从大数据集传出词的连续矢量表示法,这些表示法质量用词相似性任务测量,结果与基于不同类型神经网络的原最佳性能技术比较
抽象性 :我们建议两个新模式架构 计算持续向量表示从大数据集传出词质量表示方式用词相似性任务测量,结果与基于不同类型神经网络的原最佳性能技术比较精度大提高 计算成本低得多小于一天从16亿字数据集学习高质量向量并显示这些向量提供最先进性能 测试集测量语法和语义相似性

20 077引用

贴出内容 ·
Tomas Mikolov一号 ,IlyaSutskever一号 ,开陈一号 ,格雷格S科拉多市一号 ,Jeffrey Dean一号 ·
谷歌 一号
10月16日 2013年 - arxiv计算语言
TL;DR:论文中跳格模型用于学习高质量分布向量表示法,该表示法捕捉大量精确语义关系并提高向量质量和培训速度
抽象性 :最近引入的连续spgram模型是学习高质量分布矢量表示法的有效方法,它捕捉大量精确语法和语义关系本文显示数例扩展提高向量质量和训练速度通过子采样频繁字数,我们大大加速并学习更多定期字表示法简单替代层次软max称负采样词义表达的固有限制是他们对字序漠不关心和无法表示单词短语举例说,“Canada”和“Air”的含义不易合并获取“AirCanada”。受此例子启发,我们提出了一个简单方法查找文本短语,并显示学习数以百万计短语的向量表示法是可能的

11 343引用

过程文章 ·
2013年1月16日
TL;DR:提出了两个新模式架构计算从大数据集传入词的持续矢量表示法,并显示这些矢量提供作者测试集最新性能测量语法和语义相似性
抽象性 :我们建议两个新模式架构 计算持续向量表示从大数据集传出词质量表示方式用词相似性任务测量,结果与基于不同类型神经网络的原最佳性能技术比较精度大提高 计算成本低得多小于一天从16亿字数据集学习高质量向量并显示这些向量提供最先进性能 测试集测量语法和语义相似性

9270引用

过程文章 ·
Jeffrey Dean一号 ,格雷格S科拉多市一号 ,拉贾特蒙加一号 ,开陈一号 ,Matthieude一号 ,MarkZ毛泽东一号 ,Marc'Aurelio Ranzato一号 ,安德鲁W高级一号 ,保尔A塔克一号 ,开阳市一号 ,引文五乐市一号 ,安德鲁Y贪心一号 ·
谷歌 一号
032012年12月
TL;DR:论文思考深网络培训问题,深多参数使用数万CPU核心并开发大规模分布式培训二算法DownpourSGD和SandblasterL-BFGS,提高深网络培训规模和速度
抽象性 :最近在不受监督特征学习和深学习方面的工作显示,能够训练大模型可显著提高性能。论文中考虑训练深网络问题 数十亿参数使用数万CPU核心开发出软件框架DistBelief使用千机计算集群培训大模型在这个框架内,我们开发了两种大规模分布式培训算法:(一) 下游SGD-异步梯度下降程序支持大量模型复制件,和(二) Sandblaster-框架支持各种分布式批量优化程序,包括分布式L-BFGS实施sGD和SandblasterL-BFGS提高深度网络培训规模和速度并实现图像网最新技术性能, 视觉对象识别任务有1600万图象和21k类显示这些技术快速加速训练 广度较低的深网络 商业语音识别服务虽然我们注重并报告用于培训大型神经网络的这些方法性能,但底层算法适用于基于梯度机器学习算法

3 475引用


引用
多过滤器
过程文章 ·
卡伦西蒙扬一号 ,AndrewZiserman一号 ·
牛津大学 一号
2014年9月4日
TL;DR:这项工作调查卷积网络深度对大规模图像识别设置精度的影响,使用极小卷积滤波结构显示,前科配置可通过推深至16-19权值层实现重大改善
抽象性 :研究卷积网络深度对大规模图像识别设置精度的影响我们的主要贡献是用极小3x3卷积滤波对深度提高网络进行彻底评价,显示通过将深度推向16-19权值层可大大改善前科配置发现基础图像网挑战2014提交并显示我们表示与其他数据集相容性良好, 并实现最新结果betway亚洲并公诸于众的ConvNet两种最优表现模型 以方便深入研究 计算机视觉应用

55235引用

过程文章 ·
卡伦西蒙扬一号 ,AndrewZiserman一号 ·
牛津大学 一号
2015年1月01日
TL;DR:论文作者调查卷积网络深度对大规模图像识别设置精度的影响并显示通过推深至16-19层可显著改善前科配置
抽象性 :研究卷积网络深度对大规模图像识别设置精度的影响我们的主要贡献是用极小3x3卷积滤波对深度提高网络进行彻底评价,显示通过将深度推向16-19权值层可大大改善前科配置发现基础图像网挑战2014提交并显示我们表示与其他数据集相容性良好, 并实现最新结果betway亚洲并公诸于众的ConvNet两种最优表现模型 以方便深入研究 计算机视觉应用

49914引用

过程文章 · 多尔市 ·
2015年6月7日
TL;DR:感知像本文提到的深入卷积神经网络架构,实现图像网2014大型视觉识别挑战新状态分类检测
抽象性 :深入卷积神经网络架构代码感知实现图像网2014大型视觉识别挑战新状态分类检测本架构的主要特征是提高网络内计算资源使用率通过精心设计,我们提高网络深度和广度,同时保持计算预算不变优化质量,建筑决策基于Hebbian原理和多尺度处理直觉LSVRC14提交文件使用的一个特殊化名叫GoogleNet,这是一个22层深网络,质量从分类检测角度评估

40257引用

书本 ·

[.]

2016年11月18日
TL;DR:深度学习如本文所述是一种机器学习形式,使计算机从层次概念上学习并理解世界,并用于许多应用中,如自然语言处理、语音识别、计算机视觉、在线推荐系统、生物信息学和视频游戏
抽象性 :深学习是一种机器学习形式,使计算机从经验中学习并理解世界概念层次结构计算机从经验中收集知识,不需要计算机操作符正式具体说明计算机需要的所有知识层次概念允许计算机从简单概念中学习复杂概念图表显示多层深度这本书介绍深入学习的广泛题目文本提供数学和概念背景,覆盖线性代数相关概念、概率理论和信息理论、数值计算和机器学习描述行业从业者使用深学习技巧,包括深进化网络、规范化、优化算法、卷积网络、序列建模和实用方法并调查自然语言处理、语音识别、计算机视觉、在线推荐系统、生物信息学和视频游戏等应用betway亚洲最后,书提供研究视角,覆盖线性因子模型、自译自算器、表示学习、结构概率模型、Monte Carlo方法、分区函数、近似推理和深基因模型等理论专题betway亚洲深入学习可供本科生或研究生规划产业或研究职业使用,并可供软件工程师使用,他们想开始产品或平台深学习网站为读者和教官提供辅助材料

38208引用

过程文章 ·
谢尔盖Ioffe一号 ,基督教Szegedy一号 ·
谷歌 一号
06JUL2015
TL;DR:批量常态化应用到最先进图像分类模型中,批量整齐化实现相同精度,培训步数减14倍,并大大比原型差强
抽象性 :深神经网络培训复杂化,因为前层参数变化时,每一层输入分布变化要求低学习率和谨慎参数初始化,从而延缓培训速度,使用饱和非线性培训模型难易达名声我们称此现象为内部共变移,通过平面输入正常化解决问题方法从规范化模式架构中提取力量 并实现每次培训小型批量的规范化批量规范化使我们能够使用高得多的学习率,对初始化少加小心,并在某些情况下消除了失学需求批量常态化应用到最先进图像分类模型中,批量整齐化实现相同精度,培训步数减14倍,并大大比原型差强使用批量规范网络组合,我们提高图像网分类最佳发布结果:达4.82%前5测试误差,超出人速率器精度

30 843引用