Presented By
GTC Logo Menu
Presented by
  • DLI 动手实验室

    深入探讨与发现GPU运算如何助力深度学习、大数据与HPC以及AI、VR等前沿科技。

NVIDIA 深度学习研究院动手实验室

NVIDIA深度学习研究院动手实验室是2016年美国加州圣何塞GTC大会上的一大亮点,来自全世界的GPU开发者迫不及待的在NVIDIA及业界知名专家的带领下,体验GPU计算在各应用和研究领域的强大性能。 与本次GTC CHINA 2016同期举办的深度学习研究院动手实验室培训课程也将由来自深度学习的技术专家亲自授课,总时长超过6小时,每个内容的课程均超过90分钟。除了详细介绍最热门的深度学习开发工具DIGITS,体验用DIGITS进行目标检测之外,还将手把手教您如何用CNTK进行语音识别、如何用MXNet进行医疗影像分析以及用DIGITS, Caffe, GIE进行深度学习网络部署。我们还将充分利用茶歇的时间,让您有机会接触到我们小而强大的Jetson处理器,并有机会亲身体验它简便的设置。凡参加本次深度学习研究院动手实验室培训的学员,还将获得NVIDIA深度学习研究院颁发的官方证书!席位有限,现在就点击“注册”链接抢票参与。

下面是本次深度学习研究院动手实验室培训课程的简介:


CNTK 图像识别简介

演讲人:Sherry Wang

图像识别已成为深度神经网络迄今为止极为成功的实践应用之一。本实验室将为大家展示如何使用微软开发的计算网络工具包 (CNTK) 来训练和测试神经网络以便识别手写数字。我们将通过一系列实例的逐步讲解,让大家能够设计、创建、训练以及测试神经网络以便对 MNIST 手写数字数据集进行分类。同时,我们还会展示如何使用卷积、池化、充分互联的分层以及不同类型的激活函数。在本实验室的学习课程结束之前,大家将会对卷积神经网络有最基本的认识,从而为学习更高级的 CNTK 用法做好准备。

本实验利用云端的GPU资源,请自备笔记本电脑


用 Tensorflow 进行图像分割

演讲人:Lu Chuan

有许多重要的应用程序,它们不仅仅需要检测一幅图像中的单个目标,更需要将图像分割为多个空间兴趣区。例如,在医学成像分析中,通常需要将不同类型的组织、血液或异常细胞相对应的像素分隔开,这一点非常重要,因为只有这样我们才能将特定的器官进行隔离。在本实验室中,我们将使用 Tensorflow 深度学习框架在医学成像数据集上训练和评估图像分割网络。

本实验利用云端的GPU资源,请自备笔记本电脑


用 DIGITS 进行目标检测

演讲人:Julien Lai

在掌握了深度学习如何应用于图像分类的基础知识之后,本实验室将介绍几种不同的方法来解决一个更具挑战性的问题,即检测图像中是否存在某一目标并识别出该目标在图像内的确切位置。有许多种训练深度神经网络的方法可以用来完成这一任务,每一种方法在以下几个方面均有各自的优缺点:模型训练时间、模型精度以及部署期间的检测速度。学完本实验室的课程后,你会了解每一种方法及其优缺点,你还会亲身体验到如何利用 NVIDIA DIGITS 训练最前沿的目标检测网络,并将该网络应用到现实世界中极具挑战性的数据集上。

本实验利用云端的GPU资源,请自备笔记本电脑


用 DIGITS、CAFFE 以及 GIE 进行深度学习网络部署

演讲人:Joey Wang

深度学习软件框架利用 GPU 加速来训练深度神经网络。然而如果完成了训练,你会利用深度神经网络来做什么呢?把训练好的深度神经网络应用到新的测试数据上的过程通常被称作“推理”或“部署”。在本实验室中,你将测试 3 种不同的方法,这些方法被用于部署训练好的深度神经网络以便进行推理。第一种方法是在深度学习框架中直接使用推理功能。本例中的框架是 DIGITS 和 Caffe。第二种方法是通过使用深度学习框架 API 来在定制的应用程序中融入推理,我们再次使用了 Caffe,然而这一次是通过 Python API 来实现的。最后一种方法是使用 NVIDIA GPU 推理引擎 (GIE),该引擎会利用训练好的 Caffe 模型和网络描述文件自动创建经过优化的推理运行时。你将了解到批次大小在推理性能中所发挥的作用以及推理过程中可以实现的各种优化,还将在其它的 DLI 实验室所训练的各种不同的深度神经网络架构上探索推理性能。

本实验利用云端的GPU资源,请自备笔记本电脑