深度学习简介 (Python代写,Machine Learning代写,Deep Learning代写)

什么是AI?AI是由机器(尤其是计算机系统)对人类智能过程进行的模拟。这些过程包括学习,推理和自我纠正。

联系我们
微信: biyeprodaixie 欢迎联系咨询

本次CS代写的主要涉及如下领域: Python代写,Machine Learning代写,Deep Learning代写

简介

什么是AI?这些大惊小怪的是什么?因此,让我们从正式定义开始: 它是由机器(尤其是计算机系统)对人类智能过程进行的模拟。这些过程包括学习,推理和自我纠正。 但是,如果您想用一些非正式和轻松的语言来定义AI,那么: 这是一种现象或任务,我们试图在其中创建可以模仿人类工作的机器,即人类的智力和逻辑。 这不是几年前开始的事情,发明家们梦long以求的梦想至少是从古希腊时代起就实现了。如今,您可以在许多领域看到人工智能(AI)的应用,例如使日常工作自动化,智能手机上的面部识别和语音识别,医学诊断和科学研究等自动化的智能软件。 以前,一些AI项目已寻求使用逻辑推理规则将其编码为硬编码知识,这就是所谓的人工智能知识库方法。但是可悲的是,这些项目都没有取得重大成功,因为人工操作人员不可能为机器手动定义所有规则,也不可能找出特定工作的所有可能情况,因为在现实世界中情况可能是任何事情。

机器学习

最初的AI系统面临的这些困难表明,需要通过从原始数据中提取模式来获取自己的知识的能力。此功能称为机器学习。

机器学习使计算机能够获取现实生活中的原始数据或示例,并尝试从中提取模式并自行做出更好的决策。一些机器学习算法是逻辑回归,朴素贝叶斯,SVM等。 这些机器学习算法的性能在很大程度上取决于给定数据的表示形式。表示中包含的每条信息都称为特征,这些算法学习如何使用这些特征来提取模式或获取知识。 但是有时很难提取要提取哪些特征的信息。例如,假设我们想从图像中检测汽车,现在我们可能希望将车轮的存在作为特征。但是很难用像素值来描述轮子的外观。解决此问题的一种方法是使用机器学习不仅发现那些特征(表示)的输出,而且发现特征本身。这种方法称为表示学习。同样,如果算法能以最少的人工干预自己学习特征,那就更好了。 设计这些算法时,我们的目标通常是分离变化因素。现在这些因素并不总是直接被观察到,它们可能是未被观察到的因素,也会影响我们的算法。现在,当然,要从语音识别的说话人口音等原始数据中提取高级抽象特征可能很困难,因为只有通过对数据的人为理解才能识别出这些特征。

深度学习

深度学习可以通过引入以其他更简单的表示形式表示的表示形式,来解决表示学习中的这一问题。

我认为以上引用非常适合深度学习的工作方式,它使您可以从较简单的概念中构建出复杂的概念。 为了更“深入”地理解它,我们举一个例子:

上图是深度学习模型的图示。如前所述,算法本身很难理解原始输入数据,因此深度学习通过将输入(映射)分解为更简单的形式(模型的每一层都对其进行描述)来解决该问题。 如您在上图中所见,共有五层,并且它们彼此互连。如果对这些层进行分类,则在上图中,我们将有一个输入层,一个输出层和三个隐藏层(可以改变)。输入显示在可见层(输入层),我们能够观察到它,这解释了名称。然后,一系列的隐藏层(未提供此数据,这就是为什么被称为“隐藏”)越来越多地提取抽象特征。稍后我们将讨论“越来越多”的部分。最后,我们有了代表模型输出的输出层。 现在,对于“越来越多”的部分,隐藏层负责提取特征,并说第一个隐藏层负责识别输入图像中的边缘。如果该第二层可以轻松地搜索延伸轮廓的拐角,并且类似地使用第二层,则第三层可以检测特定对象的整个部分,这也可以解释这些层的互连性。

历史趋势

您应该知道深度学习不是一项新技术,这一事实可以追溯到1940年代。但是它似乎是新的,因为它几年来一直不受欢迎,这就是为什么我们将研究一些历史事实和趋势以了解其起源。 出现了三波发展浪潮:称为控制论的深度学习(1940年代至1960年代),称为连接主义的深度学习(1980年代至1990年代)和以深度学习为名的当前浪潮(2006年至今)。 第一波控制论始于生物学学习理论的发展和诸如感知器之类的第一个模型的实施,从而能够训练单个神经元。第二波浪潮是从带有反向传播的连接主义方法开始的,以训练具有一个或两个隐藏层的神经网络。当前和第三次浪潮始于2006年左右(Hinton等,2006; Bengio等,2007; Ranzato等,2007a),我们将在本系列的后续部分中进行详细讨论。

为什么深度学习现在变得流行?

正如我之前提到的,深度学习可以追溯到1940年代,但是最近开始流行,并且吸引了许多研究人员和工程师的眼球。 但是随之而来的问题是为什么现在呢? 这个问题的答案隐藏在深度学习模型的“隐藏层”中。 您之前已经看到深度学习模型(神经网络)包含层,并且要解决特定(大)问题,它需要许多层,这又需要更大的数据集,而要处理更大的数据集,我们需要更多的处理能力和更多的东西。 让我们详细讨论一下:

增加数据集大小:

深度学习自1990年代以来就开始应用,但当时很多研究人员拒绝使用它,因为要使其完美工作并获得更好的结果,人们需要一个庞大的数据集,该数据集可以馈入网络,以便隐藏层可以从中提取每个抽象特征。 但是,这一切都随着社会数字化的增加而开始改变,越来越多的活动在计算机上发生,在网络中连接在一起的计算机也在增加,等等。 “大数据”时代已经使深度学习的实施变得更加容易和有效。

增加的模型体积:

神经网络成功的另一个关键原因是具有更大内存的更快计算机的发展。 在拥有更大的数据集之后,研究人员面临的另一个障碍是如何处理和存储大量数据。 但是,随着当今更快的CPU和GPU以及更大的内存,我们有足够的资源来处理更大的数据集。

提高准确性和对现实世界的影响:

由于技术上的所有这些进步,研究人员现在能够大规模地进行实验,并且每天发现新的算法,概念和结果。深度学习提高了其提供更准确结果的能力,因此,它在现实生活中的使用也在增加。由于研究人员现在能够在语音识别,物体检测,图像识别等任务中获得几乎与人类相似的结果,因此许多大型IT公司现在都在其实际产品中使用深度学习。 总而言之,深度学习是一种机器学习方法,它极大地利用了我们对人脑,应用数学和统计学的了解。近年来,深度学习在其受欢迎程度和实用性方面取得了巨大的增长。 至此,本系列博客的第一部分结束了。我目前正在研究本系列的第二部分,我们将深入研究一些应用数学和线性代数。我将尝试尽快完成并在此处更新其链接。希望您喜欢这一部分,我们也会在接下来的部分中学习更多。