文/腾讯《一线》薛芳
2018年1月28日上午,《麻省理工科技评论》新兴科技峰会EmTech China于北京国贸大酒店正式召开,亚马逊AWS首席科学家Animashree Anandkumar发表了演讲。
以下附上演讲全文:
多域技术已成为前沿科技的一大领军技术力量,我非常荣幸在我的博士学位和博士后学位中研究这个话题。今天我会和大家谈一谈机器学习,怎么研究和量化机器学习。
深度学习需要经过多层甚至数百层的处理过程,这样的机器学习也会在不同的GPU,进行跨机器、跨设备处理,这就需要网络技术。多域模型能够帮助我们同时处理科学、工程,各种领域方面的应用。我们一直致力于寻求机器学习多域模型的解决方案,以及多领域的应用如何能够在云上进行计算。
深度学习跨越了许多的领域。首先我们做的是图像理解,基础任务是识别不同的物品。对于人类来说在一张图片中识别物品很简单,但是对于机器来说却是极度困难的。但我们的体系有了很大的改善,也比以往的更有优势。
之后我们也在语音识别方面取得了突破。针对不同语言的自然语言处理也有了深度学习参与。不同的语言有不同的结构,怎么才能自动的处理这些不同的语种并理解他们?
人类利用语言在不同的背景下进行交流,比如听说读写。在这些过程中,语种的表现方式是不一样的。机器如何来处理不同的语言呢?这就是深度学习面临的挑战。
另一个领域就是关于无人驾驶。怎么提高其的性能,怎么识别障碍物,怎么能够有很好的视觉,怎样立即做出决策,这些都是无人驾驶技术需要解决的一些问题,也是深度学习可以发挥作用的地方。
和大家分享一下怎么运作当前的深度学习模式。深度学习有很广泛的运用领域,我们有一些专门的项目,也在将它应用到更多不同的硬件基础设施中。Mxnet就是其中的一个深度学习引擎,这个项目首先由大学里的研究员开发,现在我们正在AWS开发这个引擎。
这个引擎的优点是显而易见的。它建立了一个网络,编程过程、表述、特征描述、风格都非常灵活、方便,提高了程序员的效率。同时也提供了很好的语言支持,且前后端自动对接,提高了编程的效率。
这个网络有一些固定的数据,相互连接的层级会在输入和输出之间进行连接。虽然一些专门的项目编程过程比较容易书写,语流更长,书写起来象征物也更多。在计算顺序方面,他们有一定的序列关系,我们制定了图表来自动进行平行的对比。它还实现了记忆进行自动化,这样在代码运算时也提高了效率。
我们也用多GPU的训练提升效率。一个机器上面会有多个GPU进行数据并行化,可以同时获得大量的数据。中央数据是来自于不同CPU等级上面的网络,数据不断地向下划分,进入各个GPU。
GPU需要进行处理时发现了相似的内容就会进行整合,也增加了我们的效率。GPU可以在Mxnet上面整合运算结果,这样成本也比较低。同时我们也提升了Mxnet的性能。增加了GPU以后,整个输入输出效率也会翻翻。这是在AWS基建上运行的,包括B2X和B22X。
所有的服务里面, Mxent的效率最高,有91%,包括Resnet和Inception v3和Alexnet。这是有多个GPU的单一基体。在多基体上每一个机器都有16个GPU,组合到一起后,所有的数据经过网络就会影响效率。但我们的效率并没有降低很多,因为Mxnet它的打造非常紧密,可以提升效率。所以我们可以进行这种分布式的多机器的训练。
这些现在也可以应用于一些情景的运行以及我们多GPU和CPU的框架之中。我们也希望可以提供这样的技术给我们的消费者,让他们知道我们分布式的训练有非常好的技术包裹,可以帮助我们进行网络压缩以及网络解压,提供好的技术服务。
所有的这些框架,都可以应用于我们的机器学习平台CHMaker。这是多机器学习的一个平台,所有的分布式深度学习框架都可以在这个平台上进行运行,比如说TensorFlow、Mxnet。我们的平台除MxNet之外可以支持所有的框架,我们希望可以给我们的用户更多灵活的选择。
除此之外,DeepLens也是我们最近发布的第一款深度学习的摄像头,可以提供很多的服务,比如语言、语句、计算机视觉等。使用者不需要培训自己的学习模型,完全可以使用我们的服务。
【一线】为腾讯新闻旗下产品,第一时间为你提供独家、一手的商业资讯。