专家将深度学习定义为一种机器学习,其中算法使用多层进行数据分析。有些人列举了一些特殊的例子,例如卷积神经网络(CNN),其各个层次涉及最大池、过滤、填充、跨界和其他任务。在更广泛的意义上,像图像处理和自然语言处理这样的事情依赖于多步骤、多算法程序,其中许多程序类似于机器学习专业人员学习识别和分析的神经网络。
正如我们在前面的一篇文章中提到的,由于GPU的并行处理能力,它在机器学习中通常是有价值的。随着机器学习的进展,硬件世界也在从单个强大的CPU核心的概念发展到具有并行处理的多个单元,这些并行处理可以更快地处理大量的计算工作。随着深度学习系统采用更高层次的生成模型,如深度信念网络、玻尔兹曼机器和回波状态系统,对并行处理和专门的核心设计有着特殊的需求。你可以说,GPU的使用有点类似于高级RISC机器在其他一些类型的处理中的使用——定制特定用途的芯片很有意义。
除了GPU在深度学习中的实用性之外,您还可以看到这些相同类型的处理器在向称为量子计算的计算结构的根本性变化的方向发展中变得越来越流行。这里再次强调的是,计算能力的复杂性和更高层次的排序需要并行处理能力。在量子计算中,传统的比特被量子比特所取代,量子比特的值可以是1,0或者是一个未指定的组合。这种“薛定谔比特”构成了一个计算模型的基础,该模型可以使IT世界一帆风顺。
对于那些对新兴技术感兴趣的人来说,观察GPU的使用及其在诸如深度学习网络和量子计算装置等系统中的继承者将是关键。许多专家会说,这两种方法都还处于初级阶段,并且在未来几年内会成熟并带来成果。