培训会员
热门点击:参观考察 中层干部 研发管理 采购管理 海关事务 秘书文秘 人力资源管理 销售营销 绩效管理 仓储管理
您现在的位置: 森涛培训网 >> 资讯频道 >>

2016年,“深度学习”的科技巨头们

作者:不详;来源:世界经理人;上传用户:yangss;上传时间:2016-7-22;

    继IBM开发的“深蓝”在1997年击败卡斯帕罗夫之后,韩国棋手李世石与谷歌旗下公司DeepMind开发的AlphaGo再度展开人机大战。这一次依旧以机器的胜利告终,并且AlphaGo很早就取得了3比0的绝对优势。与国际象棋不同,围棋需要的计算量更大,并且需要棋手在关键步数的走法上拥有良好的“直觉”和“棋感”,尤其是在大局观上要有敏锐的判断,而这些曾经都是机器的弱点。是什么让机器有这么快的进步,连围棋也被AlphaGo攻克-就是计算机的深度学习能力。

  与前几代人工智能不同,拥有深度学习能力的人工智能技术是一项重大突破,机器开始可以模仿人类的神经系统进行有效学习并且进步神速,本期“酷创新”,我们来关注几大科技巨头公司最近推出的具有“深度学习”能力的人工智能技术。

  脸书的Big Sur

  2015年底,脸书人工智能研究部门宣布,之前已经开放了多数软件源代码的人工智能计算服务器Big Sur会将其硬件设计也开源。脸书此次开源的是最新的大规模人工智能计算服务器设计,并将其提交给开源计算项目——这个项目分享了很多大公司的数据中心产品设计。这款名为Big Sur的人工智能计算服务器,内部集成了用于处理大量数据的GPU。Big Sur的目的是训练神经网络,而现代化人工智能研究项目几乎都要依赖这种系统。Big Sur服务器是依托Nvidia的GPU而打造的。GPU在人工智能中的应用十分广泛,因为这种芯片上搭载的处理核心数量多于Intel生产的传统处理器,使得它们十分适用于AI软件所需要的海量计算。Big Sur的设计特点是易于维修的主板,它装有8个NVIDIA的Tesla M40。脸书表示,CPU的散热器是该硬件中唯一一个需要用螺丝刀拆卸的东西。

  AlphaGo的新功能

  AlphaGo是谷歌旗下公司DeepMind开发的一款具有深度学习功能的围棋软件。早在2013年,DeepMind就创造出了可以模仿人类思维,学习如何玩儿电子游戏的人工神经网络。AlphaGo的工作原理是,由两个不同功能的“大脑”网络组成:策略网络(Policy network)和价值网络(Value network)协同工作。策略网络负责在当前局面下判断“最好的”下一步,可以理解为落子选择器;价值网络负责评估整体盘面的优劣,淘汰掉不值得深入计算的走法,协助前者提高运算效率,可以理解为棋局评估器。然后,两个“大脑”取各自选择的平均值,做出最终的决定。

  不过,DeepMind的技术并不是专门用来下围棋的,所谓深度学习只是通过机器自身的学习来模仿人类思维,并且不断提高完成各种特定任务的能力,而下围棋只是其中一种特定任务罢了。目前DeepMind正在与英国NHS(国家医疗服务体系)进行合作,并已经成立了“DeepMind健康”项目,并希望通过技术手段,帮助有意向参与的医护人员提高服务质量。

  Watson正变得越来越聪明

  Watson是IBM已经开发了十几年的人工智能技术,Watson正在变得越来越“聪明”。通常意义上,Watson已经进入了与巨量文献和信息搜索密切相关的政府部门和医疗机构,并且在图像识别方面已经具备了帮助医生诊断癌症的能力。然而这还不是全部。

  IBM开发人工智能技术的目的并不是为了替代人,而是更好地服务于人。在此之前,人类在各个行业中产生了大量的“非结构数据”,其中80%以上是计算机无法“读懂”的,IBM正是要训练Watson“读懂”这些数据,并且找出之前必须通过聘用具有高度洞察力的人类专家才能发现的一些数据之间的内在相关性,其中的意义极为深刻。在Watson的商业应用中,IBM已经与众多企业建立合作,包括与辉瑞制药联合利用大数据建立慢性病风险预测模型,和科大讯飞推动云平台架构合作,与Under Armour合作推出“认知训练系统”IBM开发人工智能技术的目的并不是为了替代人,而是更好地服务于人。在此之前,人类在各个行业中产生了大量的“非结构数据”,其中80%以上是计算机无法“读懂”的,IBM正是要训练Watson“读懂”这些数据,并且找出之前必须通过聘用具有高度洞察力的人类专家才能发现的一些数据之间的内在相关性,其中的意义极为深刻。在Watson的商业应用中,IBM已经与众多企业建立合作,包括与辉瑞制药联合利用大数据建立慢性病风险预测模型,和科大讯飞推动云平台架构合作,与Under Armour合作推出“认知训练系统”,与美敦力合作为病患提供个性化的糖尿病管理服务等等。

  微软的“深度残差学习”

  2015年底,微软亚洲研究院视觉计算组在ImageNet计算机识别挑战赛中凭借深层神经网络技术的最新突破,以绝对优势获得图像分类、图像定位以及图像检测全部三个主要项目的冠军。这次,微软亚洲研究院视觉计算组首席研究员孙剑博士带领的团队在深层神经网络方面进行了算法的更新,称之为“深层残差网络”(deep residual networks)。目前普遍使用的神经网络层级能够达到20到30层,在此次挑战赛中该团队应用的神经网络系统实现了152层。深度神经网络以“层”的形式分布。每一层都具有不同系列的运算——也就是算法。某一层的输出会成为下一层的输入。笼统地说,如果一个神经网络是设计用来进行图像识别的,其中某一层神经将负责寻找图片的一系列特性——边、角、形状或者纹理——而下一层神经则负责寻找另一个系列的特性。这些层级就构成了神经网络的“深度”。一般来讲,神经网络的层级越多,机器学习的难度也就越小。

  据悉,微软在视觉领域的研究成果已经转化到了诸多自身产品当中,包括Windows 10中的Windows Hello“刷脸”开机功能、必应的图像搜索、微软小冰的多个图像“技能”,OneDrive中的图片分类功能,以及广受好评的口袋扫描仪Office Lens等等。

  科大讯飞的语音“深度学习”

  语音识别给人们的想象空间非常大,比如会聊天的机器人,甚至会考试的机器人。语音识别中的深度学习涉及到算法、模型、平台,是一个非常复杂的过程。科大讯飞深度学习平台的一位负责人表示,要做深度学习并不难,买台机器,弄套相关的软件就可能做起来,但真要上了一定的规模后,系统的搭建是有讲究的。科大讯飞目前使用的机器大致分两种,一种是2:4,一种是2:8,其中2代表一台机器中CPU的数量,4和8则代表GPU的数量。之所以用这样的机器,并非出于他们的本意,而是由于当前供应商的机器就是这样设计的。从他们实际应用的角度来看,则更希望有1:4这样的产品出现,因为CPU在其中确实不承担太多的作用,只作为基础的软件运行平台。据悉,当前科大讯飞深度学习平台这一团队所用的GPU有400多块。已经是一个不小的规模,不过,现在的神经网络链接数只有10的8次方,跟真正的人脑差了近6个数量级,显然这400块是远远满足不了实际需求的,由此也带出了第二个问题的探讨,即除了关注机器中CPU和GPU的配比,做深度计算还关注哪些内容。



文章热词: ·深度学习

免责声明: 本站为非营利性网站,所登载此文是由开放网络用户自由发布分享,本站不参与审核、编辑或修改,仅为提供给感兴趣读者学习研究使用,不代表本站同意该文章的立场观点,且本站不承担稿件侵权行为连带责任。如涉及版权等问题请与本站联系,核实后会给予处理,详见本站的法律声明。
相关课程
相关专题
延伸阅读
关于我们 | 法律声明 | 服务条款 |热门课程列表 | 培训计划 | 网站地图 | 文字站点 | 加入收藏 | 用户中心
固话:020-34071250、34071978 值班手机:13378458028(可加微信) 传真:020-34071978
地址:广州市天河区东站路1号;常年法律顾问:北京市双全律师事务所 邓江华主任律师
粤ICP备13018032号 Copyright (c) 2017 All Rights Reserved 森涛培训网 三策咨询.企业培训服务