20世纪40年代,世界上第一台计算机ENIAC问世,当时正处于二战中后期,这项技术的研发初衷其实是为了配合军方试验,想更快地计算导弹轨道、角度等信息。而恰好是这项研究,为人工智能的实现提供了很好的技术基础。
神经学的研究显示,人脑而是由神经元构成的电子网络。神经细胞只存在激活和抑制两种状态,没有中间状态。此外,维纳的控制论、香农的信息论、图灵的计算理论相继表明,制造一个基于电子元器件的大脑是可能的。
1943年,生理学家W.S. McCulloch和数学家W.A. Pitts提出神经元的数学模型M-P模型。这是按照生物神经元的结构和工作原理构造出来的一个抽象和简化了的模型,也就是对一个生物神经元的建模。M-P模型的名称正是取自两名提出者名字的首字母。
▲M-P模型的提出者:w.S.McCulloch
1949年,心理学家Donald Hebb在《行为构成》一书中提出Hebb算法,他还首先提出了连接主义这一概念。所谓连接主义,是用来形容大脑的工作方式,即大脑的工作是靠脑细胞之间的连接活动完成的。Hebb指出,如果源和目的神经元均兴奋时,它们之间的突触连接会增强。这也正是Hebb算法的生物学基础。Hebb的最大贡献也在于他提出了有关神经网络工作原理的重要假设:神经网络的信息存储在连接的权值中。
▲Donald Hebb
1950年,图灵发表一篇跨时代的论文,预言了创造具有真正智能的机器的可能性,并且给出了一种用于测试机器是否拥有真正智能的测试方法,即大名鼎鼎的图灵测试。图灵指出:如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么称这台机器具有智能。图灵测试也是人工智能哲学方面第一个严肃的提案。
1951年,W.S.McCulloch和W.A.Pitts的学生Marvin Lee Minsky与Dean Edmonds一起构建了第一台神经网络机(称为SNARC)。在接下来的50年中,Minsky成为了人工智能的领导人物。下图所示为MarvinLee Minsky。
▲MarvinLee Minsky
1955年,Newell和(后来荣获诺贝尔奖的)Simon在J.C. Shaw的协助下开发了“逻辑理论家(Logic Theorist) ”。这个程序能够证明《数学原理》中前52个定理中的38个,其中某些证明比原著中的更加新颖和精巧。Simon认为他们已经“解决了神秘的心/身问题,解释了物质构成的系统如何获得心灵的性质”(这一断言的哲学立场后来被John Searle称为“强人工智能”,即机器可以像人一样具有思想)。
18年的黄金发展期
1956年,Minsky与John McCarthy组织了达特茅斯会议。会议提出的断言之一是“学习或者智能的任何其他特性的每一个方面都应能被精确地加以描述,使得机器可以对其进行模拟"。参会者包括Ray Solomonoff,Oliver Selfridge,Trenchard More,Arthur Samuel,Newell和Simon,他们中的每一位都在后来在Al研究的第一个十年中作出了重要贡献。
这次会议上,Newell和Simon讨论了“逻辑理论家",McCarthy则说服与会者接受“人工智能”"一词作为本领域的名称。达特茅斯会议上,人工智能的名称和任务得以确定,同时出现了最初的成就和最早的一批研究者,因此这一会议被广泛认为是人工智能诞生的标志。
达特茅斯会议后的数年,是人工智能的拓荒者时代,几乎每到一处,都能取得令人振奋的成就。人们发现计算机可以解决代数应用题、几何证明题甚至是学习和使用英语。而再此之前,人们从来没有想象过机器竟然可以如此智能。伴随着大量的成就,人们开始对人工智能抱着过分乐观的态度,甚至认为完全智能的机器将在20年内出现。
1958年,计算机科学家Frank Rosenblatt提出了第一个真正优秀的人工神经网络——感知机。通过感知机,已经可以解决一些线性可分问题。感知机的理论模型使用了M-P模型,并且拥有一套简单可行的学习算法。
▲Frank Rosenblatt
1960年,电机工程师Bernard Widrow和他的研究生Marcian Hoff 发表《自适应开关电路》,他们用硬件实现了神经网络,提出了ADALINE网络,并发表了Widrow-Hoff算法(也就是LMS算法)。ADALINE网络可用于自适应滤波,在本书中大家也将看到如何使用ADALINE网络进行印刷体数字识别。
▲Bernard Widrow和Marcian Hoff
在这个时期,人们对人工智能都抱着极大的热情,Minsky甚至在1967年表达过:在一代之内,创造人工智能的问题将在实质上得到解决。
1963年6月,MIT从新建立的ARPA(即后来的DARPA,国防高等研究计划局)获得了220万美元经费,用于资助MAC工程,其中包括Minsky和McCarthy五年前建立的人工智能研究组。
此后,ARPA每年提供300万美元,直到20世纪70年代为止。ARPA还对Newell和Simon在卡内基梅隆大学的工作组以及斯坦福大学人工智能项目(由John McCarthy于1963年创建)进行类似的资助。另一个重要的人工智能实验室于1965年由Donald Michie在爱丁堡大学建立。在接下来的许多年间,这四家研究机构一直是AI学术界的研究中心。
1969年,Minsky和S. papert出版《感知机》一书。在书中,他们仔细分析了以感知机为代表的单层神经网络的功能和局限性,并指出感知机无法处理非线性问题。这本书中对感知机的批评对神经网络的发展造成了极其严重的打击,为后来10年神经网络的研究中断埋下了伏笔。
1972年,Kohonen提出了SOM自组织映射网络。使用该网络,可以通过网络的自学习,实现对数据的聚类。
1972年也是Prolog语言工人的诞生年份。自1972年后,Prolog出现了各种不同的分支。在早期的人工智能研究领域,Prolog一直是一种主要方法和工具。
第一次低谷期:1974~1980年
由于人们最初对人工智能的难度进行了错误的判断。到20世纪70年代,人工智能开始遭遇各方批评,随之而来的还有研究经费的问题。由于此前人们对人工智能过分乐观,一旦当承诺无法兑现时,对人工智能的资助就大幅减少了,随着人工智能研究经费的取消,到1974年,几乎很难找到对人工智能项目的资助了。同时,Minsky对感知机的批评,对神经网络的发展几乎是毁灭式的,一度导致神经网络销声匿迹了近10年。
在这一时期,人工智能还饱受一些大学教授的批评。一些哲学家强烈反对人工智能研究者的主张,他们认为哥德尔不完备定理已经证明形式系统(例如计算机程序)不可能判断某些陈述的真理性,但是人类可以。John Searle于1980年提出“中间房间"实验,试图证明程序并不“理解"它所使用的符号。他认为如果机器不理解符号,就不能认为机器在思考。
繁荣期:1980~1987年
20世纪80年代,一类名为“专家系统"的程序开始被全世界的公司所接受,知识处理成为人工智能领域的焦点。专家系统可以根据一组专业的知识,推演出某一特定领域问题的答案。比如一个名叫MYCIN的系统能够诊断血液传染病。专家系统的出现,使得人工智能真正地实用起来。
1981年,日本经济产业省拨款8.5亿美元支持第五代计算机项目,目标是创造能够与人对话、翻译、理解图像并能像人一样思考的机器。其他国家纷纷作出响应,英国和美国也先后对人工智能产业追加投资。这些行为都促成了人工智能的繁荣。
1982年,John Hopfield提出了一种新型的神经网络(现在被称为Hopfield网络)。这是一种全连接的神经网络,具有自联想和记忆功能,并且易于用硬件实现。这使得沉寂了10年之久的神经网络重获新生。
▲John Hopfield
1986年,Rumelhart和McCLelland提出了BP神经网络。这是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。
第二次低谷期:1987~1993年
20世纪80年代,专家系统的发展也接近瓶颈。由于专家系统只能处理特定领域问题,无法形成常识概念,也不可能构建真正的智能。此外,大型专家系统的维护成本颇高,难以升级,难以使用。于是,人们对人工智能再度失望,并引发了新一轮的财政危机。
1987年,人工智能硬件市场的需求突然下降,同时苹果和IBM的台式机性能也不断提升。到1987年时,已经超过了昂贵的Lisp机。于是,老系统失去了存在的价值,瞬间土崩瓦解。
再次崛起:1993年至今
得益于计算机的发展以及摩尔定律,目前,我们有着让前辈们难以想象的计算能力。即便是在人工智能原理尚未取得重大突破的情况下,仅仅依靠计算能力,人们已经在工程上取得了不少瞩目的成绩。
1997年,“深蓝"成为战胜国际象棋世界冠军卡斯帕罗夫的第一个计算机系统。
2005年,斯坦福大学开发的一台机器人在一条沙漠小路上成功自行行走了131公里。
2006年,Hiton提出了深度置信网络。这是一种深层次神经网络,是深度学习的前驱。它使用贪心无监督的方法来学习并解决问题,取得了良好的效果。
2009年,蓝脑计划声称已经成功模拟部分人脑功能。
2012年,Andrew Ng与Jeff Dean搭建Google大脑。Google大脑使用超过16000个CPU,用以模拟10亿个神经元,在语言和图像识别上都取得了突破。
2015年,微软使用深度学习网络残差学习法,将lmageNet的分类错误率降低到3.57%,这已经低于了人眼识别率。而采用的神经网络深度已经达到152层。
2016年,拥有1920个CPU集群和280个GPU的深度学习系统AlphaGo击败李世石,成为第一个不让子击败职业围棋棋手的程序。
以“深蓝"为例,“深蓝”比20世纪50年代的计算机至少要快1000万倍。工程上的突破,让人们得以将以前只能停留在理论上的模型实际运行起来并进行测试,这大大加快了人工智能的发展并使之商业化。
人工智能在国内百花齐放
目前,中国已经成为人工智能发展最迅速的国家之一,截至2018年,中国在人工智能领域投融资总额超过700亿元,占全球的30%以上,而人工智能技术与产业的加速融合所带来对生产和生活效率的提升也极为迅速,从工业生产到消费服务等各个方面改变人类生活。
在政务服务领域,人工智能技术已经得到广泛应用,包括采用人脸识别、声纹识别等生物识别技术进行的身份验证,采用对话式AI提供智能化政务服务,采用语义理解、运用情感分析算法判断网络观点的正负面、群众情绪的舆情,采用“文本分析+知识图谱+搜索”技术辅助刑侦、技侦工作,采用计算机视觉类技术识别并追踪监控中的重点嫌疑人员。
在金融行业,人工智能的应用场景逐步由以交易安全为主向变革金融经营全过程扩展。人在这一领域的应用可分为服务智能、认知智能和决策智能三个层面。服务智能得益于算力的提升,进行监督式机器学习。例如,利用人脸识别、语音识别和智能客服等,提升金融领域的交互水平和服务质量。认知智能以监督式机器学习为主,辅以无监督式挖掘特征变量,进而使风险识别和定价更为精细。决策智能以无监督学习为主,通过预测人脑无法想象、尚未发生的情境,指导和影响当前决策。
在医疗健康领域,医疗行业人工智能应用发展迅速,我国医疗人工智能的应用领域相对集中,应用场景多侧重于医疗健康产业链后端的病中诊疗阶段。腾讯、阿里巴巴等互联网平台企业,推想科技、汇医慧影、依图医疗等创业企业,以及西门子等传统医药企业,均将医学影像作为现阶段AI技术产品化的重点方向,开发了一批食管癌、肺癌、乳腺癌、结直肠癌筛查以及糖尿病视网膜病变AI辅助医学影像产品。
在自动驾驶领域,以无人驾驶技术为主导的汽车行业将迎来产业链的革新。传统车企的生产、渠道和销售模式将被新兴的商业模式所替代。新兴的无人驾驶解决方案技术公司和传统车企的行业边界将被打破。随着共享汽车概念的兴起,无人驾驶技术下的共享出行将替代传统的私家车的概念。随着无人驾驶行业规范和标准的制定,更加安全、快捷的无人货运和无人物流等新兴行业将不断涌现。
在制造业领域,人工智能的应用潜力巨大。面向研发设计环节,利用人工智能算法开发数字化自动研发系统,大幅度降低制药、化工、材料等周期长、成本高、潜在数据丰富的领域的研发不确定性,推动高风险、高成本的实物研发设计,向低成本、高效率的数字化自动研发设计转变。
面向生产制造环节,利用人工智能技术提升柔性生产能力,实现大规模个性化定制,提升制造业企业对市场需求变化的响应能力;
面向质量控制环节,利用人工智能技术在材料、零配件、精密仪器等产量大、部件复杂、工艺要求高的制造业细分领域,率先实现产品快速质检和质量保障,提升人工智能技术与物联网和大数据技术的融合水平,构建面向生产全流程的质量自动检测体系;
面向供应链管理环节,利用人工智能技术实现对供需变化的精准掌握,建立实时、精准匹配的供需关系,着重提升市场需求变动大、供应链复杂领域的供应链效能;面向运营维护环节,建立基于人工智能算法的设备产品运行状态模型,监测运行状态指标的变化情况,提前预测和解决设备、产品、生产线的故障风险问题。
在消费零售领域,人工智能在商务决策场景、精准营销场景、客户沟通场景等各个零售环节多点开花,应用场景碎片化并进入大规模实验期,人工智能在消费零售领域的应用场景正在从个别走向聚合,传统零售企业与电商平台、创业企业结成伙伴关系,围绕人、货、场、链搭建应用场景。
例如,京东将人工智能技术运用于零售消费的全系统、全流程、全场景,在供应端,京东发布人工智能平台,实现了智能算法的跨场景复用,每天的调用量突破12亿次;
蚂蚁金服利用人工智能技术控制金融风险、提高金融效率、降低交易成本、提高用户体验,其微贷业务实现了3秒申请、1秒决定、零等待的“310”服务形态,其“定损保”业务通过一张照片即可识别车险赔付中车辆的维修成本;
苏宁、国美等线下零售企业开始布局线上与线下相结合的人工智能应用。
人工智能技术越来越快地从研究阶段转到应用阶段。想了解各行业应用中的新的AI技术吗?
由中国电子信息产业发展研究院(赛迪研究院)、人工智能产业创新联盟编写的《人工智能实践录》中,展示了不同领域的近40个案例,深入分析技术落地的方法,为未来的创新和应用提供了宝贵经验。