英特尔在本周举行的2019 NeurIPS大会上贡献了30多篇文章。
会议、专题研讨会和焦点论文,内容涵盖深度均衡模型,模仿学习,机器编程
等。英特尔人工智能研究院高级总监唐翰林表示:
“随着我们不断将人工智能融入到从低功耗设备到数据中心加速器的所有设备和范围内,英特尔将继续推动基础研究和应用研究的前沿。在今年NeurIPS大会上,英特尔将发表30多篇会议和专题研讨会论文。我们很荣幸能够与来自全球各地的杰出学术团体携手开展研究工作,这也彰显了英特尔通过合作推进机器学习发展的承诺。”英特尔资深院士、英特尔研究院院长Rich Uhlig博士表示:
“从应对内存挑战到研究新的自适应学习技术,英特尔在推进和扩展神经网络技术以应对日益复杂的动态负载方面取得了重大进展。我们在NeurIPS大会上展示的开发成果将有助于减少内存占用量、更好地衡量神经网络如何处理信息,并重塑机器实时学习的方式,发掘新的深度学习应用潜力,改变从制造业到医疗的所有领域。”在NeurIPS大会上,英特尔的研究课题涵盖了人工智能的所有领域。
,从对神经网络的基本理解
,到机器学习在软件编程中的应用
,再到高能物理学
。以下是其中一些亮点:自动化软件测试 标题:《诊断软件性能回归的零正学习方法》作者:Mejbah Alam(英特尔研究院)、Justin Gottschlich(英特尔研究院)、Nesime Tatbul(英特尔研究院)、Javier Turek(英特尔研究院)、Timothy Mattson(英特尔研究院)、Abdullah Muzahid(德克萨斯AM大学)
时间地点:太平洋标准时间2019年12月12日(星期四)下午5:00-7:00,东展厅B+C #120
通过机器学习实现软件开发的自动化
是一个新兴领域,其愿景是通过由机器学习驱动的工具增强程序员测试代码、写新代码并诊断错误的能力。本文提出了一种在高性能计算代码中,自动进行回归测试(由新代码签入引起的错误)的方法AutoPerf。在运行代码时只利用名义训练数据和硬件性能计数器,我们证明了AutoPerf可以检测到并行编程中一些最复杂的性能bug。通过模仿学习来教机器人 标题:《目标条件模仿学习》作者:丁(加州大学伯克利分校)、卡洛斯弗洛伦萨(加州大学伯克利分校)、彼得阿贝耳(加州大学伯克利分校和初创公司Covariant.ai)、马里亚诺菲利普(英特尔人工智能研究所)
时间和地点:太平洋标准时间2019年12月12日星期四上午10:45-下午12:45,东展厅B+C #229
这项研究工作的愿景是建立一个可以从人类演示中快速轻松学习的机器人算法。
。尽管在机器人技术领域,通过人类演示来进行学习的研究非常充分,但是当前机器人所做的工作并不能超越人类专家,容易受到不完美的人类教师的影响,并且无法适应没见过的情况。本文介绍了一种新开发的算法goalGAIL。利用goalGAIL,机器人可展现出比专家更强的学习能力,甚至能够在非专家动作的情况下运行。这将扩大机器人技术的应用范围,例如:在演示者并不一定是专家的实用机器人领域;在算法可能需要迅速适应新部件的工业环境;以及在算法必须通过演示来适应个人喜好的个性化机器人领域。序列模型的新方法 标题:《深度均衡模型》作者:白(卡内基梅隆大学),j科尔特(卡内基梅隆大学),弗拉德伦科尔顿(英特尔研究院)
时间地点:2019年10月10日星期四,太平洋标准时间上午10:40-10:45,西宴会厅c。
在NeurIPS (2%接受率)的这篇焦点论文中,我们针对序列数据开发了一种全新的机器学习方法,可以用单层模型代替深度递归层。我们不需要遍历一系列的层,而是通过根查找直接求解最终的表示。这种新模型可以在语言基准测试中达到最先进的性能,但它只有一层,可以减少88%的内存占用。这为构建更大更强大的模型提供了新的思路。
无需重训练的4比特Post-Training量化 标题:《实现快速部署的卷积网络Post-Training 4比特量化》作者:Ron Banner(英特尔研究院)、Yury Nahshan(英特尔研究院)、Daniel Soudry(Technion)
时间和地点:太平洋标准时间2019年12月11日星期三上午10:45-下午12:45,东展厅B+C #105
卷积神经网络是一种深度神经网络,最常用于视觉图像分析,需要大量的计算资源、内存带宽和存储容量。为了加快分析速度,通常将模型量化为低位表示。然而,这种方法通常需要完整的数据集和耗时的微调来恢复量化后损失的精度。本文介绍了第一种实用的4位训练后量化方法。
,该方法不涉及对量化模型的训练(微调),也不需要提供完整数据集。在各种卷积模型中,该方法所达到的精度仅比最新基准低几个百分点。了解神经网络 标题:《不变语音识别中的解缠》作者:Cory Stephenson(英特尔人工智能研究所)、Suchismita Padhy(英特尔人工智能研究所)、Hanlin Tang(英特尔人工智能研究所)、Oguz Elibol(英特尔人工智能研究所)、Jenelle Feather(麻省理工学院)、Josh McDermott(麻省理工学院)、SueYeon Chung(麻省理工学院)
时间地点:太平洋标准时间2019年12月11日(星期三)下午5:00-7:00,东展厅B+C #241
神经网络通常被称为“黑盒”,因为它的一些决策是不透明的。人们试图通过各种方法窥探这个黑匣子,但挑战在于很多措施没有理论依据。在与麻省理工学院的合作中,我们应用了一些有理论基础的基于流形容量的测量方法。
来更好地理解语音识别模型的几何结构。有理论依据的测量方法在深度学习领域极为罕见,这项工作试图通过一个独特的视角来了解神经网络处理信息的方式。英特尔和英特尔是英特尔公司在美国和/或其他国家的商标。的其他名称和品牌可能是其他所有者的资产。有关英特尔商标或商标和品牌名称数据库的完整列表,请参考Intel商标信息。