人工智能简史
前期,人工智能使用知识(句法、逻辑等规则)来搜索问题的解,主要用在数学和逻辑领域,比如证明数学定理、计算函数、逻辑推理等。中期,人工智能强方法盛行,在具体的领域有独立地应用。当下,人工智能正以神经网络、概率和决策等连接主义理论为基础,以机器学习、数据挖掘等为工具,迈向产业性强、覆盖面广的发展方向,将会深刻影响人们的生活方式。
1 孕育期(1943-1955)
1) Warren McCulloch和Walter Pitts在1943年提出了一种人工神经元模型,并且证明了任何逻辑连接词(与、或、非等)和可计算的函数都可以通过相连神经元的某个网络来实现。
2) 唐纳德·赫布(Donald Hebb)在1949年展示了一条简单的用于修改神经元之间的连接强度的更新规则,现在称为赫布型学习。
3) 两名哈佛大学的本科生,马文·明思基(Marvin Minsky)和Dean Edmonds,在1950年建造了第一台神经网络计算机,称为SNARC。明思基还研究了神经网络中的一般计算。
4) 阿兰·图灵在1947年发表了人工智能主题演讲,并在1950年的文章“计算机器与智能(Computing Machinery and Intelligence)”中清晰地表达了有说服力的应办之事:图灵测试、机器学习、遗传算法和强化学习,还提出了儿童程序(Child Programme)的思想。
2 诞生(1956)
1) 1956年夏天,约翰·麦卡锡组织了十位对自动机理论、神经网络和智能研究感兴趣的研究者们召集在一起,在达特茅斯组织了一个为期两个月的研讨会,被认为是人工智能领域的诞生标志,达特茅斯大学也成为了公认的人工智能领域的诞生地。
3 第一轮循环成功:早期的热情,巨大的期望(1952-1969)
1) 早期人工智能在有限的方面充满成功;
2) 通用问题求解器或GPS继承并发扬了纽厄尔和西蒙的早期成就(逻辑推理程序),他们构想出著名的“物理符号系统”假设;
3) 在IBM,内森尼尔·罗切斯特和他的同事们制作了一些最初的人工智能程序,如几何定理证明器、西洋跳棋程序(驳斥了计算机只能做被告知的事的思想);
4) 约翰·麦卡锡从达特茅斯搬到了MIT,在1958年做出了三项至关重要的贡献:①定义了高级语言Lisp,在后来的30年中成为了占统治地位的人工智能编程语言;②发明了分时技术;③发表了题为“有常识的程序”(Programs with Common Sence)的论文,文中描述了意见接受者(Advice Taker),这个假想程序可以被看成是第一个完整的人工智能系统;
5) 1963年,麦卡锡在斯坦福创办了人工智能实验室。1965年,J.A.Robinson归结方法的发现促进了麦卡锡使用逻辑来建造最终的意见接受者的计划;
6) 明斯基指导了一系列学生,研究了诸如闭合式微积分问题、几何类推问题、代数问题等微观世界问题。最著名的微观世界是积木世界;
7) 基于McCulloch和Pitts的神经网络的早期工作也十分兴旺。
4 第一轮循环失望:现实的困难(1966-1973)
1) 早期人工智能系统在简单实例上令人鼓舞的性能使研究者们过于自信,然而,当用于更宽的问题选择和更难的问题时,结果证明都非常失败;
2) 第一种困难:早期程序对其主题一无所知,仅依靠简单的句法、逻辑等规则的使用获得成功;
3) 第二种困难:人工智能试图求解的问题的难解性,放大到更大更复杂的问题不只是更快的硬件和更大的存储器。
4) 第三种困难:用来产生智能行为的基本结构的某些根本局限。比如,明斯基证明了:感知机能够学会他们能表示的任何东西,但是它们能学会的东西很少。
5 基于知识的系统(1969-1979)
1) 上一轮的成功和失望,皆因为AI研究采用的是通用的搜索机制,试图串联基本的推理步骤来寻找完全解,称为弱方法。不能扩展到大规模的或困难的问题实例;
2) 强方法:使用更强有力的、领域相关的知识,以允许更大量的推理步骤,且可以更容易地处理狭窄的专门领域里发生的典型情况。如:DENDRAL程序,根据质谱仪提供的信息推断分子结构的问题;医疗诊断,诊断血液传染;特定领域的自然语言理解。
6 成为产业(1980—)
1) 第一个成功的商用专家系统R1开始在数据设备公司(DEC)运转,该程序帮助为新计算机系统配置订单;
2) 总的来说,AI产业从1980年的区区几百万美元暴涨到1988年的数十亿美元,包括几百家公司研发的专家系统、视觉系统、机器人以及服务这些目标的专门软件和硬件。
7 神经网络的回归(1986—)
1) 在20世纪80年代中期,至少4个不同的研究组重新发明了由Bryson和Ho于1969年首次建立的反传(BP神经网络)学习算法,属于连接主义模型;
2) 当前观点认为,连接主义方法和符号主义方法(纽厄尔、西蒙和麦卡锡等人主张的方法)是互补的,不是竞争的;
3) 现代神经网络研究分离成了两个领域:一个是建立有效的网络结构和算法并理解它们的数学属性,另一个关心的是对实际神经元的实验特性和神经元的集成建模。
8 采用科学的方法(1987—)
1) 在方法论方面,AI最终成为坚实的科学方法:假设必须遵从严格的经验实验,结果的重要性必须经过统计分析;
2) 语音识别和机器翻译领域都发生了方法论的变革:隐马尔可夫模型(HMMs)主导前者,基于单词序列的方法主导后者;
3) 通过改进的方法论和理论框架,神经网络领域达到一个新的理解程度,可以和统计学、模式识别和机器学习等领域的对应技术相提并论;
4) 《保卫概率》和《智能系统中的概率推理》开启了AI对概率和决策理论的新一轮接纳:贝叶斯网络对于不确定知识进行有效表示和严格推理,主导着不确定推理和专家系统中的AI研究,结合了经典AI和神经网络的最好部分
5) 类似的温和革命也发生在机器人、计算机视觉和知识表示领域。
9 智能agent的出现(1995—)
1) 研究者们再一次审视“完整Agent”问题。Allen NeWell、John Laird和Paul Rosenbloom在SOAR系统上的工作是最有名的完整Agent结构的例子,智能Agent最重要的环境之一就是Internet;
2) 试图建立完整Agent,需要把以前被孤立的AI子领域重新组织;
3) 一些有影响的AI创建者,包括John McCarthy、Marvin Minsky、Nils Nilsson和Patrick Winston都表达了对AI进展的不满。他们认为AI应该少把重点放在改进对特定任务表现很好的应用,例如驾驶汽车、下棋或者语言识别。转而,应该回到它的根:会思考、会学习、会创造的人类级AI(HLAI);
4) 和HLAI相关的思想是人工通用智能(AGI)子领域,寻找通用的在任何环境中的学习和行动算法。
10 极大数据集的可用性(2001—)
1) 采用更多训练数据带来的性能提升超过选用算法带来的性能提升;
2) Yarowsky在1995年的论文提到,在词语歧义消除方面的工作,一个普通算法使用一亿个单词的未标注训练数据,会好过最有名的算法使用100万个单词;
3) Hays和Efros在2007年讨论了照片中补洞的问题,发现如果他们只用一万张照片,那么他们的算法性能会很差,但如果增加到两百万张时,算法会一跃而表现出极好的性能。
11 最新发展水平
无人驾驶汽车、语音识别、自主规划与调度、博弈、垃圾信息过滤、后勤规划、机器人技术、机器翻译等。