查看完整版本: [-- 人工智能可以代替人类吗? --]

武当休闲山庄 -> 数码讨论 -> 人工智能可以代替人类吗? [打印本页] 登录 -> 注册 -> 回复主题 -> 发表主题

huozm32831 2021-06-13 20:44
最近,大数据又有了新的发展,在人工智能研究领域取得了不同于过去的进展。

关于人工智能的研究从19世纪 50年代开始历经了两次热潮,现在正处于第三阶段。过去两个阶段的目标在于给电脑搭建规则、逻辑和知识体系,用以解决现实世界的具体问题。但现实中的具体情况很难一概而论,总会有例外或偶然事情发生。想想我们在日常生活中的对话就能明白,现实情况千变万化,不可能一成不变地按照规则行事。

从这一点来看,研究出可与人类智慧相匹敌的人工智能技术有些让人不可思议。实际上,美国哲学家休伯特•德雷福斯早在 19世纪 70年代就在其著作《计算机不能做什么》中,就“人工智能的极限”提出了如下主张:

在把时间和资金花费在信息加工之前,应该想一想,人类主体原型和已有的程序,是否表明计算机语言适用于分析人的行为;把人类理智全部分解成离散的、确定的、与上下文环境无关元素的规则来支配运算,是可能的吗?逼近人工智能的这一目标究竟是不是可能的呢?两者的答案是一个:不可能。

如今这样的状况正在发生巨大改变。例如,大家应该已经从新闻中看到了可以自动驾驶的无人车的消息,车上搭载的就是人工智能技术,它能够判断复杂多变的具体情况并及时采取恰当的对策。如若不然,就很有可能事故频发,但事实上因为它能够灵活应对周围的环境,所以几乎没有发生过事故。

又例如,如果有苹果手机,我们应该会用到一个叫“ Siri”的应用。当我们用自然语言对它说“检索某某”时,很快会得到相应的答案。也就是说,它能理解我们所说的内容并做出相对应的回答。这个应用虽说现在用起来还不那么灵活,但从某种程度上来说还是十分有用的,可以说是在苹果手机上搭载的人工智能技术。

现在的人工智能已与过去有所不同,它可以从复杂多变的现实情况出发,进行自主学习,也被称为“机器学习”或“深度学习”,人工智能水平因此获得了飞跃性的发展。而为人工智能进行自主学习提供信息的正是大数据。通过互联网收集到的大数据是人工智能进行“深度学习”的素材。由于信息量越来越大,遇到突发和例外情况时,人工智能也能够妥善处理。

如今以大数据为支撑,人工智能研究正处于爆发式的发展中。

与人类平等对话的人工智能可以实现吗?



不过,人工智能真的能够具有如人类一般的智慧吗?在机械计算和信息处理等方面,人工智能的水平的确远超人类。但是在用自然语言进行对话方面,人工智能连小孩的水平都不如,它对根据上下文的意思做出恰当回答或提问都有一定的困难。那么,人工智能真的能够像人类一样处理事情吗?

最早提出这个问题的是英国的数学家艾伦•图灵( Alan Turing),他在 1950年发表的论文中提出了“机器能思考吗?”这一问题,并设计了一个验证答案的方式。这个验证方式被称为“图灵测试”,简单地说,就是让提问者隔着一堵墙同时与人类和机器(电脑)用文字进行交流,并根据交流的情况来判断哪个是人类。



自1990年以来每年都会举行图灵测试的比赛。在比赛中有5分钟的自由对话时间,如果一台机器能够在5分钟内回答由人类测试者提出的一系列问题,且超过30%的回答让测试者误认为是人类所答,那么就可以认为这台机器具有人类智能。图灵测试自举办以来从没有电脑能通过测试,直到2014年初,有一台机器通过了测试。这件事一度引起了轰动,但很多电脑方面的专家也提出了质疑。可以说,能够与人类一样进行对话的人工智能似乎尚未出现。

美国哲学家约翰• R. 塞尔以通过图灵测试为假设条件,提出了一个思维实验——中文屋。该实验最早在塞尔于 1980年发表的论文《心灵、大脑和程序》中有所提及,这里引用 2004年的《心灵导论》中的一段话进行说明:

本人事实上是根本不懂汉语的……不过,我们能够设想这样一种情况:我被关在一间屋子里,里面有一些装满汉语字符的盒子。另外我还有一本规则手册,这手册实际上就是一个计算机程序,而且也正是它才使得我能够回答出那些用汉语提出的问题。我所接收的那些我看不明白的符号就是问题;我在规则手册中搜寻那些我被认为应当去做的事;我从盒子里拣选出一些符号,根据程序中的规则来摆弄它们,然后将被要求的字符递送出去——这些字符则被解释为回答。即使假定我能够通过用来检测理解汉语的图灵测试,但我依然还是弄不懂哪怕一个字的汉字。然而,如果(在这个情形中)我并没有在执行正确的计算机程序的基础上理解汉语的话,那么任何一台其他的以执行程序为基础的计算机也做不到这一点。

由此可知,塞尔认为即使有机器完全通过了图灵测试,也无法说明电脑就真的像人一样拥有心灵和思维。但是对现代社会而言,无论是否拥有心灵和意识,首要目标是研制出能够通过图灵测试的人工智能。如果有机器能像塞尔想象的那样准确地进行“自动翻译”,那么将对社会产生无法估量的影响。

框架问题解决了吗?



与人工智能相关的还有一个问题,即所谓“框架问题”。这个问题最早出现在人工智能研究者麦卡锡和海耶斯( John McCarthy & Patrick J. Hayes)的一篇论文中,美国哲学家丹尼尔•丹尼特( Daniel Dennett)在 1984年的一篇论文中又重新提起。如今,由丹尼特首创的思维实验已逐渐被广泛应用。虽说篇幅有点长,但为了理解问题,我们还是来看一下丹尼特所描述的这个实验:

①从前有个机器人,制造它的人给它起名叫 R1。它只有一个任务,就是照料自己。一天,在设计者的安排下,它得知它的备用电池——它珍贵的能源——和一个快要爆炸的定时炸弹锁在一间房子里。 R1找到了这个房间和房门钥匙,并做出抢救电池的计划。房间里有一辆小车,电池就在这辆车上。R 1假设,某个叫作拉出(小车,房间)的行动能将电池从房间里转移出来。它立即行动,果然在炸弹爆炸前将电池从房间里取出。然而不巧的是,那个炸弹也在小车上。R 1虽然知道炸弹就在房间里的小车上,但是没有意识到拉小车时炸弹会随着电池一起被带出来。可怜的R 1在计划它的行动时遗漏了这个明显的蕴涵关系。

②回到制图板前。设计者们说:“其解答很明显。我们的下一个机器人,一定要造得不仅能识别它的动作中的拟议的蕴涵关系,而且也能识别这些动作附带的蕴涵关系,可通过它做计划时采用的那些描述来推演这些关系。”他们把下一个模型——机器人推演者叫作 R1D1。他们把R 1D1放到与R 1失败时相同的险境中。当R 1D1也产生拉出(小车,房间)的想法时,就像设计的那样开始考虑这种行动过程的蕴涵关系。它刚刚推演完把小车从房间里拉出来不会改变房间墙壁的颜色,正要着手证明下一个蕴涵关系——拉出小车时会造成它的轮子转的圈数比小车轮子的多,就在这时,炸弹爆炸了。

③回到制图板前。设计者们说:“我们必须教它区分开相关蕴涵关系和无关蕴涵关系,还要教它忽略那些无关的。”于是他们想出一个方法,给蕴涵关系加上标记,标明它与当前任务是相关的还是无关的,并在下一个模型中采纳了这一方法,这一模型叫作机器人相关推演者,简称 R2D1。制造者们让R 2D1去接受那个专门设计的、曾使它的前任们丧生的试验,这时他们惊奇地看到,它正坐在那间装有嘀嗒作响的炸弹的房子外面,一副哈姆雷特的做派,它果断的精神本色因陷入沉思而显出病容,正像莎士比亚(以及最近的福多尔)生动描写的那样。“干点什么吧!”他们朝它喊。“我正在做,”它反驳说,“我正忙着忽略成千上万我已确定为无关的蕴涵关系。我只要发现一个无关的蕴涵关系,就把它放进那些必须忽略的关系表中去,并且……”炸弹响了。



一般来说,“框架问题”是人工智能在实际应用中可能会遇到的难题,为了达成的目的,必须要考虑与之相关的无数个可能的结果。但是就如②所示,要考虑所有结果,就有可能根本不能开始行动。鉴于此,如③所示,设计者命令机器人“只需考虑与目的有关的重要结果,其他一律忽略!”。可是机器人又陷入了永无止境的对“究竟哪个结果与目的相关、哪个结果与目的无关”进行判断的状况中,最终还是无法有所行动。

这样的话,是不是意味着,只要“框架问题”不解决,人工智能就无法实现呢?但值得注意的是,不仅人工智能有“框架问题”,人类也有,但人类能够为了达成目的而采取行动并不是因为解决了“框架问题”。

如果考虑所有结果,人类一样会陷入无尽判断而不能行动,而且人类也不一定能分辨出哪一个才有可能是与目的相关联的重要结果。只不过,人类不会被“框架问题”限制住,而是能跳出限制采取行动,因此像①那样被炸毁的情况也不少见。

现在有了大数据做支撑,人工智能也逐渐能像人类一样跳出(并非解决)“框架问题”的限制而行动了。正因为如此,无人驾驶才成为一种可能。

smen 2021-06-17 13:21
人工智能是来控制人类的


查看完整版本: [-- 人工智能可以代替人类吗? --] [-- top --]


Powered by www.wdsz.net v8.7.1 Code ©2005-2018www.wdsz.net
Gzip enabled


沪ICP备:05041533号