找回密码
 立即注册
搜索
查看: 16|回复: 0

浅谈机器学习:从人工智能到深度学习,多领域交叉的神奇学科

[复制链接]

9420

主题

0

回帖

2万

积分

管理员

积分
28470
发表于 4 天前 | 显示全部楼层 |阅读模式
关于机器学习的简短讨论:深度学习

从人工智能到机器学习再到深度学习

人工智能是大量知识,但目前有一门与之相关的学科 - 机器学习

机器学习是一个多领域的跨学科主题,涉及多个学科,例如概率理论,统计学,近似理论,凸分析,算法复杂性理论等。它专门研究计算机如何模拟或实施人类学习行为以获取新知识或技能,并重新组织现有知识结构,以不断提高自己的表现。

简单的理解是,机器学习是算法和模型的学科,这些算法和模型可以使机器更聪明。

机器学习中有许多算法和模型,其中之一在算法上特别擅长,这是深度学习。

1。机器学习简介

机器学习是一项多场跨学科研究,专门研究计算机如何模拟或实施人类学习行为以获取新知识或技能以重新组织现有知识结构,以便它们可以不断提高其性能。它是人工智能的核心,也是使计算机智能的基本方法。

2。深度学习简介

深度学习是一种实现机器学习的技术。这不是独立学习方法本身。它还使用监督和无监督的方法来训练深度学习网络。由于近年来该领域的快速发展,已经提出了一些独特的学习方法,因此许多人仅将其视为一种学习方法。深度学习(DL,)是机器学习领域(ML)领域的新研究方向,它已被引入机器学习中,以使其更接近其最初的目标 -人工智能(AI,CE)。深度学习是学习内部法律和样本数据的表示级别。在这些学习过程中获得的信息在解释诸如文本,图像和声音之类的数据方面有很大帮助。它的最终目标是使机器能够像人类一样分析和学习,并识别诸如文本,图像和声音之类的数据。深度学习是一种复杂的机器学习算法,与以前的相关技术相比,在语音和图像识别方面取得更多的结果。深度学习在搜索技术,数据挖掘,机器学习,机器翻译,自然语言处理,多媒体学习,语音,推荐和个性化技术以及其他相关领域方面取得了许多成就。深度学习使机器能够模仿人类活动,例如视听和思考,解决许多复杂的模式识别问题,并在与人工智能相关的技术中取得了重大进展。 (以上所有均来自百科百科全书)

3。深度学习的发展历史

最初的深度学习是一个学习过程,该过程使用深度学习网络来解决解决方案中的表达。深度神经网络本身并不是一个全新的概念。它可以大致理解为包含多个隐藏层的神经网络结构。为了改善深网的训练效果,人们对神经元的连接方法和激活功能进行了相应的调整。尽管几年前,由于数据量和向后功能不足,但最终效果并不令人满意。

深度学习完成了各种任务,例如破碎的死亡,几乎所有机器协助的功能都变得可行,无人驾驶汽车,医疗预防性医疗保健,甚至可以看到更好的电影建议或即将实施。

iv。深度学习的问题

深度学习可以说是目前最受欢迎的机器学习方法,但是其中有几个问题。

1。深度学习模型需要大量数据以显示神奇的效果。在现实生活中,您将不可避免地遇到小扬班的问题。这是因为深度学习不会干扰。

2。一些领域采用简单的传统机器学习通常可以解决一个问题,即无需采用复杂的深度学习方法。

3。深度学习的方法来自生动的灵感,但并不完全等于人脑。如果您稍微改变了有关某些事情的一些本地变量,那么您的判断可能会因此而改变,但是人的大脑几乎无法做到这一点。换句话说,人类学习过程不需要大量的培训数据,当前的学习方法显然不是对人脑的模拟。

5。深度学习核心计算模型:人工神经智能

6。深度学习的本质:



本质是通过建立具有许多隐藏层和大量培训数据的机器学习模型来学习更多有用的功能,从而最终提高了分类或预测的准确性。因此,“深层模型”是一种手段,“特征学习”是目的。

与传统的浅学习不同,深度学习之间的区别是:1。强调模型结构的深度,通常具有5、6或10层以上的隐藏层节点; 2。显然强调了特征学习的重要性,即通过逐层特征转换,原始空间中样本的特征表示形式被转换为新的特征空间,从而使分类或预测更加容易。与构建特征的人造规则的方法相比,使用大数据来学习功能可以更好地描绘数据的丰富内部信息。

7。机器学习与深度学习之间的比较

1。数据依赖性

深度学习和传统机器学习之间的主要区别在于,随着数据量表的增加,其性能继续增长。当数据很少时,深度学习算法的表现不佳。这是因为深度学习算法需要大量数据才能完美理解它。另一方面,在这种情况下,使用规则集,传统机器学习算法的性能将更好。下图总结了这一事实。

2。硬件依赖性

深度学习算法需要大量的矩阵操作,而GPU主要用于有效地优化矩阵操作,因此GPU是深度学习正常工作的必要硬件。与传统的机器学习算法相比,深度学习更多地取决于安装GPU的高端机器。

人工神经网络是信息响应性拓扑结构,由大量相互连接的节点组成。它们可用于模拟人脑神经元的活性过程。它们反映了人脑功能的基本特征,包括信息处理,处理和存储等过程。到目前为止,已发现的人工神经网络的特征主要包括非线性,并行处理和容错,并具有关联,自学,自学,自组织和适应性的能力。

学习四个象限

8。人工神经网络的特征

1。非线性

人工神经网络可以很好地处理非线性问题,因为它们的内部成分(可以激活或抑制),并且这种行为在数学上被认为是非线性的。同时,人工神经网络是大量神经元的集体行为,并不是单个神经元的行为的简单添加,因此它们将显示复杂的非线性动态系统的特征。在实际问题处理中,输入和输出之间将存在复杂的非线性关系。通过设计神经网络来训练和了解系统输入的输出样本和复杂的非线性功能,可以任意地拟合精确的问题,从而解决了一些问题,例如复杂的环境信息,不清楚的知识背景和不清楚的推理规则。

2。并行处理

人工神经网络的结构由并联的大量处理单元组成,并且处理顺序也是并行的,即同一级别的处理单元同时运行。它的信息存储方法采用了分布式方法,该方法将存储的信息分配到所有连接权利并将其共存在一起,并且许多神经元的处理速度将同时更快。

3。容错和关联能力

在生物系统中,信息不存储在某个位置,而是通过内容分布在整个网络中。神经网络神经元不仅存储一个外部信息,而是存储多个信息内容的一部分。由于神经网络具有此分布式存储表格,如果网络中的某些神经元损坏,它将不会对整体情况产生重大影响。此外,处理后的数据信息存储在神经元之间的重量中,这类似于大脑在突触之间活动中信息的存储。该分布式存储算法结合了操作和存储。当信息不完整时,可以通过关联内存来恢复。因此,人工神经网络具有强大的容错性和关联记忆能力,可以提取和恢复不完整的信息和干扰中的功能,并将其恢复为完整的信息。

4。自学,自组织和适应性

人工神经网络具有强大的自学能力,可以通过持续训练获得适当的权重和结构。人工神经网络在处理信息时会改变重量大小,并获得不同的结果,并且可以通过某些培训获得所需的输出值。人工神经网络系统可以根据外部环境刺激下的某些规则调整神经元之间的突触连接强度,并逐渐建立神经网络。此过程称为网络的自组织。适应是指人造神经网络通过改变自己的结构和条件来适应不同环境的能力。

以上几点是人工神经网络的主要特征。

9。一般近似定理



一般近似定理告诉我们,无论功能f(x)的功能多么复杂,我们始终可以找到一个具有任何可能的输入x的神经网络,该神经网络具有任何可能的输入X的近似于f(x)的准确性(即使函数具有多个输入和输出,换句话说,换句话说,神经网络都可以在理论上可以解决任何问题!

使用时有两件事要注意:

该定理说,可以将神经网络设计为尽可能“近似”特定功能,而不是“准确”计算此功能。只能通过增加隐藏的神元素的数量来提高近似精度。

近似的函数必须是连续的。如果该函数是不连续的,也就是说,有一个极陡峭的函数,神经网络将“没有帮助”。

即使功能是连续的,对于神经网络是否可以解决所有问题,有争议的原因也非常简单,就像笑话“理想是充满的,现实是瘦的。一般近似定理在理论上是最重要的,但在实际操作中,这是问题。

10。三个级别的机器学习

它可以大致分为三类:

(1)监督学习():

监督学习基本上是“分类()”的代名词。它从标记的培训数据中学习,然后提供一些新数据,预测其标签(给定数据)。

简而言之,监督学习的工作是通过标记的数据培训获得模型,然后通过构建模型向新数据添加特定标签。

整个机器学习的目的是使学习的模型适合“新样本”,而不仅仅是在培训样品上工作。通过训练获得的获得的模型是适用于新样本的能力,这称为“概括()能力”。

(2)无监督的学习():

与监督的学习相反,无监督学习的学习环境都是非标签数据。无监督的学习本质上是“ ()”的同义词。

简而言之,给定数据,您可以从数据中学到的内容取决于数据本身具有的特征(给定数据,了解该数据)。我们经常说的是“羽毛鸟群在一起,人们分为群体”是指“无监督的学习”。无论是“类别”还是“组”,我们都不预先知道。一旦我们总结了“类”或“组”的特征,如果我们想提出一个新数据,我们将“预测“ class”或“ group”它属于哪个“类”或“组”,从而更接近,从而完成新数据的“类”或“组”函数。

(3)半监督学习(半):

这种类型的学习方法同时使用标签数据和非标签数据。

给定一组来自​​一些未知分布的标记示例,l = {(x1,y1),(x2,y2),…,(xl,yl)},其中xi是data,yi是标签。对于未标记的示例集u = {xl+1,xl+1,…,xl+u},i u u,因此我们希望函数f:x→y可以准确地预测其标签yi对于未标记的数据。这是所有d维矢量,yi∈Y是示例xi的标记。

半监督的学习是通过“已知认知(标记为分类信息)”扩展“未知领域(通过聚类思想将未知事物分类为已知的事物)”。但是这里有一个基本的假设 - “聚类假设()”,其核心含义是:“相似的样本具有相似的输出”。

上述内容摘自深度学习美的AI时代的数据处理和最佳实践-Zhang  [电子行业出版社2018.07]

内容借鉴了来自多个政党的优质材料,并整合了个人意见。如果有任何不适当的人,请指出。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|【科创星域】 ( 京ICP备20013102号-15 )

GMT+8, 2025-5-4 22:05 , Processed in 0.071683 second(s), 20 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表