0


人工智能简史

人工智能简史(非个人整理,转载自网络)

1945年:艾伦·图灵

Alan Turing 就已经在考虑如何用计算机来模拟人脑了。他设计了 ACE(Automatic Computing Engine - 自动计算引擎)来模拟大脑工作。在给一位同事的信中写道:“与计算的实际应用相比,我对制作大脑运作的模型可能更感兴趣 … 尽管大脑运作机制是通过轴突和树突的生长来计算的复杂神经元回路,但我们还是可以在 ACE 中制作一个模型,允许这种可能性的存在,ACE 的实际构造并没有改变,它只是记住了数据 …” 这就是 机器智能 的起源

1946年,世界上一台通用电子计算机ENIAC在美国诞生。随着图灵的理论研究,AI技术开始在电子时代得到发展。

在这里插入图片描述

1956年:感知机模型

1956 年,美国心理学家 Frank Rosenblatt 实现了一个早期的神经网络演示 - 感知器模型(Perceptron Model),该网络通过监督 Learning的方法将简单的图像分类,如三角形和正方形。这是一台只有八个模拟神经元的计算机,这些神经元由马达和转盘制成,与 400 个光探测器连接。

在这里插入图片描述

1956年:达特茅斯会议

1956 年的夏天,在 Dartmouth College 的一次会议上,AI 被定义为计算机科学的一个研究领域,Marvin Minsky(明斯基), John McCarthy(麦卡锡), Claude Shannon(香农), 还有 Nathaniel Rochester(罗切斯特)组织了这次会议,他们后来被称为 AI 的 “奠基人”。

达特茅斯会议的目的是促进计算机科学、数学和工程等领域的合作和交流,探讨计算机科学的未来发展方向(基础理论、应用领域、教育与培训)

会议的结果是提供了重要的思想支持;

在这里插入图片描述

1969年:经历低潮

1969 年,Marvin Minsky 和 Seymour Papert 在《感知器:计算几何学导论》一书中阐述了因为硬件的限制,只有几层的神经网络仅能执行最基本的计算,一下子浇灭了这条路线上研发的热情,AI 领域迎来了第一次泡沫破灭。这些先驱们怎么也没想到,计算机的速度能够在随后的几十年里指数级增长,提升了上亿倍。

明斯基为了证明罗森布拉特发明的感知机和神经网络的价值有限,与另一位麻省理工学院的教授摩尔·派普特合作,着手从数学和逻辑上去证明罗森布拉特的理论和感知机具有重大的局限性,没有什么发展前途。

在《感知机:计算几何学导论》一书里他们同时也指出了感知机的致命弱点:“感知机能解决线性可分的问题,但是它也仅仅能解决线性可分的问题。”两位教授同样用数学方法,证明了感知机,更准确地说是单层的感知机并不能处理非线性数据的分类问题,其中最典型的就是“异或问题”。

明斯基不仅证明了单层感知机的不足,还证明了多层感知机在实际情况下也是不可行的,因为每增加一个隐层产生的连接数量都会急剧增加,并且加入隐层后罗森布拉特的训练方法就会失效,当时的硬件和算法都没有解决这些难题的办法。

1960-1970年代:早期专家系统

在这个时期,AI研究主要集中在符号主义,以逻辑推理为中心。此时的AI主要是基于规则的系统,比如早期的专家系统。

MYCIN就是其中最具代表性的(医疗)专家系统。

第一次使用了知识库的概念,并使用了似然推理技术。后来的许多专家系统都是在 MYCIN 的基础上研制的。

这一时期专家系统在理论和方法上也进行了较深入的探讨。

适于专家系统开发的程序语言和高级工具也相继问世。

尤其是专家系统工具的出现又大大加快了专家系统的开发速度,进一步普及了专家系统的应用。

在这里插入图片描述

1980年代:神经网络

当基于规则的系统弊端在 1980 年代变得明显时,人工智能研究开始关注机器学习,这是该学科的一个分支,采用统计方法让计算机从数据中学习。因此,神经网络是根据人脑的结构和操作创建和建模的。

在这里插入图片描述

1990-2000年代:机器学习

在1990年代,AI研究在机器人技术、计算机视觉和自然语言处理等领域取得了显著进展。在21世纪初,深度学习的出现使得语音识别、图像识别和自然语言处理的进步成为可能 —— 深度学习是机器学习的一个分支,它使用深度神经网络。

深度学习(Deep Learning,简称DL)是机器学习(Machine Learning,简称ML)领域中的一个重要分支,它模仿了人脑神经网络的运作方式,旨在让机器能够自主地学习和识别复杂模式。深度学习的核心是神经网络,它由大量的人工神经元组成,通过层级结构(包括输入层、隐藏层和输出层)来处理和解释数据。

在深度学习中,模型通过前向传播接收输入数据,经过隐藏层的计算和激活函数处理,最终产生输出结果。为了评估模型的准确性,使用损失函数来计算预测值与实际值之间的差异。然后,通过反向传播算法,根据链式法则更新每个神经元的权重和偏置,以减少损失函数的值,从而优化模型。

深度学习在众多领域取得了显著成果,包括但不限于语音和图像识别、自然语言处理、机器翻译、数据挖掘和推荐系统。它不仅能够处理传统的结构化数据,还能处理图像、文本和声音等非结构化数据。深度学习的发展极大地推动了人工智能技术的进步,使机器能够执行更复杂的任务。
在这里插入图片描述

1997:深蓝赢得国际象棋比赛

IBM 深蓝在 1997 年战胜了国际象棋冠军卡斯帕罗夫后,新的基于概率推论(Probabilistic Reasoning)思路开始被广泛应用在 AI 领域,随后 IBM Watson 的项目使用这种方法在电视游戏节目《Jeopardy》中经常击败参赛的人类。

在这里插入图片描述

2012年:深度学习兴起

Deep Learning是一种 Machine Learning 算法,它使用多层神经网络和反向传播(Backpropagation)技术来训练神经网络。该领域是几乎是由 Geoffrey Hinton 开创的,早在 1986 年,Hinton 与他的同事一起发表了关于深度神经网络(DNNs - Deep Neural Networks)的开创性论文,这篇文章引入了 反向传播 的概念,这是一种调整权重的算法,每当你改变权重时,神经网络就会比以前更快接近正确的输出,可以轻松的实现多层的神经网络,突破了 1966 年 Minsky 写的 感知器局限 的魔咒。

举一个例子来说明反向传播的思想是:

1前向传播:三个人在玩你画我猜的游戏,然后第一个人给第二个人描述,再将信息传递给第三个人,由第三个人说出画的到底是啥。

2反向传播:第三个人得知自己说的和真实答案之间的误差后,发现他们在传递时的问题差在哪里,向前面一个人说下次描述的时候怎样可以更加准确的传递信息。就这样一直向前一个人告知。

在这里插入图片描述

2012年:AlexNet赢得ImageNet挑战赛

AlexNet在ImageNet挑战赛上取得了突破性的成果,从而引发了深度学习的热潮。深度学习最重要的数据集之一,就是由 李飞飞 创建的 ImageNet。曾任斯坦福大学人工智能实验室主任,同时也是谷歌云 AI/ML 首席科学家的李飞飞,早在 2009 年就看出数据对 Machine Learning 算法的发展至关重要,同年在计算机视觉和模式识别(CVPR)上发表了相关论文。

AlexNet还有一些创新点呢!

1-它成功使用了ReLU作为激活函数,解决了Sigmoid在网络较深时的梯度弥散问题。

(Sigmoid函数在网络较深时的梯度弥散问题,就像接力赛中力量在传递过程中逐渐消失一样,导致网络难以训练和优化。)

2-同时,在训练过程中,AlexNet采用了Dropout方法,随机忽略一部分神经元,以避免模型过拟合。
在这里插入图片描述

2016年:AlphaGO战胜围棋世界冠军

DeepMind 在 2014 年被 Google 以 5.25 亿美元收购的。它专注游戏算法,其使命是 “解决智能问题”,然后用这种智能来 “解决其他一切问题”。DeepMind的AlphaGo在2016年战胜了围棋世界冠军李世石。这是一个历史性的时刻,它标志着人工智能在围棋这个历史悠久且复杂度极高的游戏中超越了人类,对人类对于机器智能和未来可能性的理解产生了深远影响。

在这里插入图片描述

2022年:ChatGPT横空出世

OpenAI 是一个由 Elon Musk, Sam Altman, Peter Thiel, 还有 Reid Hoffman 在 2015 年共同出资十亿美金创立的科研机构,其使命是 通用人工智能(AGI),即一种高度自主且在大多数具有经济价值的工作上超越人类的系统。在2022年,OpenAI发布了名为ChatGPT的语言模型。这个模型基于GPT-3框架,其能力在于生成和理解自然语言,甚至能与人类进行深度交谈。ChatGPT的问世是人工智能在自然语言处理领域的一大里程碑,它开启了人工智能的新纪元。通过深度学习和大规模数据训练,ChatGPT能理解复杂的人类语言,并生成具有连贯性和创造性的回应。

在这里插入图片描述
在这里插入图片描述

一张图看懂AI简史

在这里插入图片描述
在这里插入图片描述

标签: 笔记

本文转载自: https://blog.csdn.net/2301_78795591/article/details/141474010
版权归原作者 清征江湖 所有, 如有侵权,请联系我们删除。

“人工智能简史”的评论:

还没有评论